• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • Tagged with
  • 15
  • 15
  • 8
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Essays on the economics of banking and corporate governance

Chapelle, Ariane 16 June 1999 (has links)
<p>La thèse se compose de trois chapitres distincts. Le premier, rédigé en français, traite des questions de l’adaptation des établissements de crédits belges à leur environnement économique et financier depuis le milieu des années septante. Il a fait l’objet de deux publications dans les Cahiers Economiques de Bruxelles en 1997. Les deuxième et troisième chapitres, rédigés en Anglais, traitent de questions de Corporate Governance et, en particulier, décrivent et analysent l’actionnariat et les participations des sociétés belges cotées en Bourse de Bruxelles en 1995.<br><p><p><p><b>Chapitre 1 :Impacts des évolutions du secteur financier sur le choix de portefeuille d'une banque</b><br><p><p><p>Comment expliquer l’apparente stationnarité de la structure de bilan des établissements de crédits au cours de ces vingt dernières années? Pour modéliser l'activité bancaire, nous avons utilisé les théories de choix de portefeuille de Markowitz, en considérant la banque comme un investisseur face à trois actifs risqués (crédits, dépôts, fonds d'Etat) et détenant un capital fixé. Le modèle développé est une extension du modèle construit par PYLE (1971) qui prenait en compte deux actifs risqués et un actif sans risque.<br><p><p><p>Le paramétrage ajuste le bilan théorique d'une banque sur le bilan agrégé de l'ensemble des banques en Belgique en 1975. Cet ajustement sur des données du passé permet d'étudier, aux travers de chocs sur les paramètres du modèle calibré, les trois grandes évolutions qu'a connu le secteur bancaire au cours des vingt années écoulées :l'augmentation de la concurrence bancaire, la modification des risques d'intérêt dans le sens d'une plus grande flexibilité des taux de dépôts, et l'introduction du ratio Cooke, imposant aux banques de détenir des fonds propres à hauteur de 8% minimum des crédits accordés au secteur privé.<br><p><p><p>L'étude de ces trois chocs, individuellement d'abord, simultanément ensuite, a mis en évidence notamment les résultats suivants :<br> <p>1.\ / Doctorat en sciences économiques, Orientation économie / info:eu-repo/semantics/nonPublished
12

Trois essais sur la généralisation des préférences moyenne-variance à l'ambiguïté / Three essays on the generalisation of mean-variance preferences to ambiguity

Andre, Eric 08 December 2014 (has links)
Cette thèse propose une généralisation des préférences moyenne-variance à l'ambiguïté, c'est-à-dire aux contextes dans lesquels l'investisseur ne peut pas, ou ne souhaite pas, décrire le comportement des actifs risqués par un modèle probabilisé unique. Elle se rattache donc au champ de recherche qui vise à appliquer les modèles de décision dans l'ambiguïté à la théorie mathématique de la finance, et dont le but est d'améliorer les capacités descriptives de cette théorie financière par la généralisation d'une de ses hypothèses centrales : l'utilité espérée.Les modèles étudiés ici sont ceux qui représentent les croyances du décideur par un ensemble de probabilités, ou priors : on cherche à montrer, d'une part, sous quelles conditions ces modèles peuvent être appliqués à la théorie financière et, d'autre part, ce qu'ils lui apportent. Ainsi, après une introduction générale qui propose une synthèse des avancées de ce champ de recherche, un premier essai étudie les conditions de compatibilité entre ces modèles à ensemble de priors et les préférences moyenne-variance, un deuxième essai analyse les possibilités offertes par le modèle Vector Expected Utility pour généraliser ces préférences à l'ambiguïté et, finalement, un troisième essai développe l'une de ces pistes pour construire un critère moyenne-variance généralisé et étudier les effets de l'aversion à l'ambiguïté sur la composition optimale d'un portefeuille d'actifs risqués. Les résultats obtenus permettent notamment de conclure que l'aversion à l'ambiguïté est bien une explication possible du puzzle de la préférence pour le pays d'origine. / This dissertation proposes a generalisation of the mean-variance preferences to ambiguity, that is contexts in which the investor can not, or does not wish to, describe the behaviour of the risky assets with a single probabilistic model. Hence it belongs to the field of research that seeks to apply models of decision under ambiguity to the mathematical theory of finance, and whose aim is to improve the descriptive capacities of this theory of finance through the generalisation of one of its central hypothesis: expected utility.The models that are studied here are those which represent the decision maker's beliefs by a set of priors: we aim to show, on the one hand, under which conditions these models can be applied to the financial theory, and, on the other hand, what they bring to it. Therefore, following a general introduction which proposes a survey of the advances of this field of research, a first essay studies the conditions of compatibility between these models with a set of priors and the mean-variance preferences, a second essay analyses the possibilities given by the Vector Expected Utility model to generalise these preferences to ambiguity and, finally, a third essay develops one of these threads to construct a generalised mean-variance criterion and to study the effects of ambiguity aversion on the optimal composition of a portfolio of risky assets. The results that are obtained allow notably to conclude that aversion to ambiguity is indeed a possible explanation of the home-bias puzzle.
13

Mémoire longue, volatilité et gestion de portefeuille / Long memory, volatility and portfolio management

Coulon, Jérôme 20 May 2009 (has links)
Cette thèse porte sur l’étude de la mémoire longue de la volatilité des rendements d’actions. Dans une première partie, nous apportons une interprétation de la mémoire longue en termes de comportement d’agents grâce à un modèle de volatilité à mémoire longue dont les paramètres sont reliés aux comportements hétérogènes des agents pouvant être rationnels ou à rationalité limitée. Nous déterminons de manière théorique les conditions nécessaires à l’obtention de mémoire longue. Puis nous calibrons notre modèle à partir des séries de volatilité réalisée journalière d’actions américaines de moyennes et grandes capitalisations et observons le changement de comportement des agents entre la période précédant l’éclatement de la bulle internet et celle qui la suit. La deuxième partie est consacrée à la prise en compte de la mémoire longue en gestion de portefeuille. Nous commençons par proposer un modèle de choix de portefeuille à volatilité stochastique dans lequel la dynamique de la log-volatilité est caractérisée par un processus d’Ornstein-Uhlenbeck. Nous montrons que l’augmentation du niveau d’incertitude sur la volatilité future induit une révision du plan de consommation et d’investissement. Puis dans un deuxième modèle, nous introduisons la mémoire longue grâce au mouvement brownien fractionnaire. Cela a pour conséquence de transposer le système économique d’un cadre markovien à un cadre non-markovien. Nous fournissons donc une nouvelle méthode de résolution fondée sur la technique de Monte Carlo. Puis, nous montrons toute l’importance de modéliser correctement la volatilité et mettons en garde le gérant de portefeuille contre les erreurs de spécification de modèle. / This PhD thesis is about the study of the long memory of the volatility of asset returns. In a first part, we bring an interpretation of long memory in terms of agents’ behavior through a long memory volatility model whose parameters are linked with the bounded rational agents’ heterogeneous behavior. We determine theoretically the necessary condition to get long memory. Then we calibrate our model from the daily realized volatility series of middle and large American capitalization stocks. Eventually, we observe the change in the agents’ behavior between the period before the internet bubble burst and the one after. The second part is devoted to the consideration of long memory in portfolio management. We start by suggesting a stochastic volatility portfolio model in which the dynamics of the log-volatility is characterized by an Ornstein-Uhlenbeck process. We show that when the uncertainty of the future volatility level increases, it induces the revision of the consumption and investment plan. Then in a second model, we introduce a long memory component by the use of a fractional Brownian motion. As a consequence, it transposes the economic system from a Markovian framework to a non-Markovian one. So we provide a new resolution method based on Monte Carlo technique. Then we show the high importance to well model the volatility and warn the portfolio manager against the misspecification errors of the model.
14

Trois essais en macroéconomie internationale : le phénomène de préférence pour les titres nationaux et l'énigme de la quantité revisités

Coën, Alain 19 December 2008 (has links) (PDF)
Le premier chapitre étudie les implications d'un modèle à générations imbriquées avec coûts de transaction sur la diversification internationale des portefeuilles. Nos résultats montrent que l'introduction de très petits coûts de transaction permet de reproduire le phénomène de préférence pour les titres financiers nationaux. Le second chapitre est consacré à l'analyse des relations entre le phénomène de préférence pour les titres nationaux, les prévisions des analystes financiers et l'opacité des bénéfices. En utilisant des données de haute qualité sur la composition des portefeuilles et en introduisant un estimateur de moments d'ordre supérieur, nous confirmons, améliorons et généralisons les résultats obtenus récemment par Ahearne et al. (2004). Premièrement, nous montrons que la précision des prévisions des analystes financiers peut contribuer à expliquer le manque de diversification observé dans la composition des portefeuilles américains. Deuxièmement, nous mettons en évidence la relation entre les mesures d'opacité et le phénomène de préférence pour les titres nationaux. Dans le troisième chapitre, nous revisitons l'énigme de la quantité en développant un modèle international de cycles avec management délégué. Dans chaque pays les actionnaires embauchent des managers et leur délèguent les décisions d'embauche et d'investissement. Nous montrons que les managers prennent des décisions intertemporelles dans leur propre intérêt et notamment des décisions d'investissement, qui ont des conséquences importantes sur l'énigme de la quantité. Le modèle permet de répliquer les principaux faits stylisés des fluctuations internationales.
15

Optimal portfolio selection with transaction costs

Koné, N'Golo 05 1900 (has links)
Le choix de portefeuille optimal d'actifs a été depuis longtemps et continue d'être un sujet d'intérêt majeur dans le domaine de la finance. L'objectif principal étant de trouver la meilleure façon d'allouer les ressources financières dans un ensemble d'actifs disponibles sur le marché financier afin de réduire les risques de fluctuation du portefeuille et d'atteindre des rendements élevés. Néanmoins, la littérature de choix de portefeuille a connu une avancée considérable à partir du 20ieme siècle avec l'apparition de nombreuses stratégies motivées essentiellement par le travail pionnier de Markowitz (1952) qui offre une base solide à l'analyse de portefeuille sur le marché financier. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature en proposant divers outils économétriques pour améliorer le processus de sélection de portefeuilles sur le marché financier afin d'aider les intervenants de ce marché. Le premier chapitre, qui est un papier joint avec Marine Carrasco, aborde un problème de sélection de portefeuille avec coûts de transaction sur le marché financier. Plus précisément, nous développons une procédure de test simple basée sur une estimation de type GMM pour évaluer l'effet des coûts de transaction dans l'économie, quelle que soit la forme présumée des coûts de transaction dans le modèle. En fait, la plupart des études dans la littérature sur l'effet des coûts de transaction dépendent largement de la forme supposée pour ces frictions dans le modèle comme cela a été montré à travers de nombreuses études (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). Ainsi, pour résoudre ce problème, nous développons une procédure statistique, dont le résultat est indépendant de la forme des coûts de transaction, pour tester la significativité de ces coûts dans le processus d'investissement sur le marché financier. Cette procédure de test repose sur l'hypothèse que le modèle estimé par la méthode des moments généralisés (GMM) est correctement spécifié. Un test commun utilisé pour évaluer cette hypothèse est le J-test proposé par Hansen (1982). Cependant, lorsque le paramètre d'intérêt se trouve au bord de l'espace paramétrique, le J-test standard souffre d'un rejet excessif. De ce fait, nous proposons une procédure en deux étapes pour tester la sur-identification lorsque le paramètre d'intérêt est au bord de l'espace paramétrique. Empiriquement, nous appliquons nos procédures de test à la classe des anomalies utilisées par Novy-Marx and Velikov (2016). Nous montrons que les coûts de transaction ont un effet significatif sur le comportement des investisseurs pour la plupart de ces anomalies. Par conséquent, les investisseurs améliorent considérablement les performances hors échantillon en tenant compte des coûts de transaction dans le processus d'investissement. Le deuxième chapitre aborde un problème dynamique de sélection de portefeuille de grande taille. Avec une fonction d'utilité exponentielle, la solution optimale se révèle être une fonction de l'inverse de la matrice de covariance des rendements des actifs. Cependant, lorsque le nombre d'actifs augmente, cet inverse devient peu fiable, générant ainsi une solution qui s'éloigne du portefeuille optimal avec de mauvaises performances. Nous proposons deux solutions à ce problème. Premièrement, nous pénalisons la norme des poids du portefeuille optimal dans le problème dynamique et montrons que la stratégie sélectionnée est asymptotiquement efficace. Cependant, cette méthode contrôle seulement en partie l'erreur d'estimation dans la solution optimale car elle ignore l'erreur d'estimation du rendement moyen des actifs, qui peut également être importante lorsque le nombre d'actifs sur le marché financier augmente considérablement. Nous proposons une méthode alternative qui consiste à pénaliser la norme de la différence de pondérations successives du portefeuille dans le problème dynamique pour garantir que la composition optimale du portefeuille ne fluctue pas énormément entre les périodes. Nous montrons que, sous des conditions de régularité appropriées, nous maîtrisons mieux l'erreur d'estimation dans le portefeuille optimal avec cette nouvelle procédure. Cette deuxième méthode aide les investisseurs à éviter des coûts de transaction élevés sur le marché financier en sélectionnant des stratégies stables dans le temps. Des simulations ainsi qu'une analyse empirique confirment que nos procédures améliorent considérablement la performance du portefeuille dynamique. Dans le troisième chapitre, nous utilisons différentes techniques de régularisation (ou stabilisation) empruntées à la littérature sur les problèmes inverses pour estimer le portefeuille diversifié tel que définie par Choueifaty (2011). En effet, le portefeuille diversifié dépend du vecteur de volatilité des actifs et de l'inverse de la matrice de covariance du rendement des actifs. En pratique, ces deux quantités doivent être remplacées par leurs contrepartie empirique. Cela génère une erreur d'estimation amplifiée par le fait que la matrice de covariance empirique est proche d'une matrice singulière pour un portefeuille de grande taille, dégradant ainsi les performances du portefeuille sélectionné. Pour résoudre ce problème, nous étudions trois techniques de régularisation, qui sont les plus utilisées : le rigde qui consiste à ajouter une matrice diagonale à la matrice de covariance, la coupure spectrale qui consiste à exclure les vecteurs propres associés aux plus petites valeurs propres, et Landweber Fridman qui est une méthode itérative, pour stabiliser l'inverse de matrice de covariance dans le processus d'estimation du portefeuille diversifié. Ces méthodes de régularisation impliquent un paramètre de régularisation qui doit être choisi. Nous proposons donc une méthode basée sur les données pour sélectionner le paramètre de stabilisation de manière optimale. Les solutions obtenues sont comparées à plusieurs stratégies telles que le portefeuille le plus diversifié, le portefeuille cible, le portefeuille de variance minimale et la stratégie naïve 1 / N à l'aide du ratio de Sharpe dans l'échantillon et hors échantillon. / The optimal portfolio selection problem has been and continues to be a subject of interest in finance. The main objective is to find the best way to allocate the financial resources in a set of assets available on the financial market in order to reduce the portfolio fluctuation risks and achieve high returns. Nonetheless, there has been a strong advance in the literature of the optimal allocation of financial resources since the 20th century with the proposal of several strategies for portfolio selection essentially motivated by the pioneering work of Markowitz (1952)which provides a solid basis for portfolio analysis on the financial market. This thesis, divided into three chapters, contributes to this vast literature by proposing various economic tools to improve the process of selecting portfolios on the financial market in order to help stakeholders in this market. The first chapter, a joint paper with Marine Carrasco, addresses a portfolio selection problem with trading costs on stock market. More precisely, we develop a simple GMM-based test procedure to test the significance of trading costs effect in the economy regardless of the form of the transaction cost. In fact, most of the studies in the literature about trading costs effect depend largely on the form of the frictions assumed in the model (Dumas and Luciano (1991), Lynch and Balduzzi (1999), Lynch and Balduzzi (2000), Liu and Loewenstein (2002), Liu (2004), Lesmond et al. (2004), Buss et al. (2011), Gârleanu and Pedersen (2013), Heaton and Lucas (1996)). To overcome this problem, we develop a simple test procedure which allows us to test the significance of trading costs effect on a given asset in the economy without any assumption about the form of these frictions. Our test procedure relies on the assumption that the model estimated by GMM is correctly specified. A common test used to evaluate this assumption is the standard J-test proposed by Hansen (1982). However, when the true parameter is close to the boundary of the parameter space, the standard J-test based on the chi2 critical value suffers from overrejection. To overcome this problem, we propose a two-step procedure to test overidentifying restrictions when the parameter of interest approaches the boundary of the parameter space. In an empirical analysis, we apply our test procedures to the class of anomalies used in Novy-Marx and Velikov (2016). We show that transaction costs have a significant effect on investors' behavior for most anomalies. In that case, investors significantly improve out-of-sample performance by accounting for trading costs. The second chapter addresses a multi-period portfolio selection problem when the number of assets in the financial market is large. Using an exponential utility function, the optimal solution is shown to be a function of the inverse of the covariance matrix of asset returns. Nonetheless, when the number of assets grows, this inverse becomes unreliable, yielding a selected portfolio that is far from the optimal one. We propose two solutions to this problem. First, we penalize the norm of the portfolio weights in the dynamic problem and show that the selected strategy is asymptotically efficient. However, this method partially controls the estimation error in the optimal solution because it ignores the estimation error in the expected return, which may also be important when the number of assets in the financial market increases considerably. We propose an alternative method that consists of penalizing the norm of the difference of successive portfolio weights in the dynamic problem to guarantee that the optimal portfolio composition does not fluctuate widely between periods. We show, under appropriate regularity conditions, that we better control the estimation error in the optimal portfolio with this new procedure. This second method helps investors to avoid high trading costs in the financial market by selecting stable strategies over time. Extensive simulations and empirical results confirm that our procedures considerably improve the performance of the dynamic portfolio. In the third chapter, we use various regularization (or stabilization) techniques borrowed from the literature on inverse problems to estimate the maximum diversification as defined by Choueifaty (2011). In fact, the maximum diversification portfolio depends on the vector of asset volatilities and the inverse of the covariance matrix of assets distribution. In practice, these two quantities need to be replaced by their sample counterparts. This results in estimation error which is amplified by the fact that the sample covariance matrix may be close to a singular matrix in a large financial market, yielding a selected portfolio far from the optimal one with very poor performance. To address this problem, we investigate three regularization techniques, such as the ridge, the spectral cut-off, and the Landweber-Fridman, to stabilize the inverse of the covariance matrix in the investment process. These regularization schemes involve a tuning parameter that needs to be chosen. So, we propose a data-driven method for selecting the tuning parameter in an optimal way. The resulting regularized rules are compared to several strategies such as the most diversified portfolio, the target portfolio, the global minimum variance portfolio, and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio.

Page generated in 0.2478 seconds