• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 171
  • 47
  • 6
  • 6
  • 5
  • 2
  • 1
  • Tagged with
  • 267
  • 123
  • 55
  • 51
  • 45
  • 43
  • 42
  • 37
  • 34
  • 33
  • 31
  • 29
  • 28
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Indice de stress financier pour le Canada : mesure de l'instabilité financière à l'aide de l'analyse en composantes principales

Morin, Catherine 20 April 2018 (has links)
Les marchés financiers sont souvent sujets à d’importantes perturbations, les plus récentes ayant été observées lors de la crise financière de 2008. Ces perturbations peuvent être qualifiées de stress financier, qui se définit comme une interruption du fonctionnement normal des marchés financiers. Ce mémoire propose de mesurer le stress du marché financier canadien, en s’inspirant de l’analyse effectuée par KLIESEN et SMITH [2010] pour les États-Unis. Ces auteurs, qui travaillent à la Réserve fédérale de Saint-Louis, proposent une approche basée sur une analyse en composante principale. Nos résultats montrent que le stress sur les marchés canadiens a une évolution similaire à celui des États-Unis. Un test de causalité de Granger indique que le stress financier américain cause du stress financier sur le marché canadien. Par la suite, la méthode d’analyse en composantes principales non linéaire par noyau (KPCA) est utilisée sur les données américaines et canadiennes. Cette nouvelle méthodologie permet de mieux illustrer le comouvement entre les séries temporelles, lorsque l’on admet des corrélations potentiellement non linéaires. Les résultats montrent que cette nouvelle méthode permet d’obtenir des graphiques dont le bruit est réduit, et avec des structures mieux définies. L’amplitude des évènements de stress est changée, mais l’indice garde la même évolution qualitative. / Financial markets are often affected by important perturbations, as witnessed during the 2008 financial meltdown. These perturbations can be seen as a form of financial stress and are defined as an interruption of normal working financial market. This thesis proposes to measure the financial stress in the Canadian market, using a principal component methodology used by the Saint-Louis Federal Reserve (KLIESEN and SMITH [2010]). Our results show that the financial stress occurring on the Canadian market is stongly related to financial stress: notably US financial stress granger causes financial stress on the Canadian market. Additionally, we use a kernel principal component analysis (KPCA) on both US and Canadian data, to account for second and third degree effects in covariance structures. The kernel analysis reduces the noise on the stress graph. Similar structures are visible and qualitative features are the same, but the relative amplitude of these structures is changed.
192

L’évolution des systèmes de paiement : vers un système de paiement international d’importance systémique opérant en milieu ouvert

Vézina, Édith 19 April 2018 (has links)
"Les systèmes de paiement et de compensation interbancaire ont évolué à une vitesse fulgurante depuis le milieu du XXe siècle grâce à plusieurs innovations techniques et technologiques. Ces innovations ont permis de réduire le temps d'exposition aux risques de crédit et de liquidité tout en augmentant une nouvelle forme de risque, le risque opérationnel. La croissance des relations internationales a également augmenté le nombre de transactions transfrontalières et les paiements internationaux font partie intégrante du paysage commercial et économique. L'arrivée et le perfectionnement d'Internet ont également contribué à l'évolution des communications transfrontalières. Malgré cette croissance, les paiements internationaux sont essentiellement véhiculés par des systèmes nationaux. Cette thèse propose un système de paiement international de nouvelle génération qui permettrait de maximiser les forces des systèmes existants et d'utiliser l'expertise des acteurs économiques existants. Le paiement serait soumis à un corpus juridique unique et les participants reliés entre eux par l'entremise d'Internet."
193

Évaluation de deux modèles de produits dérivés : pour le marché de l'électricité en Amérique du Nord

Beaudoin, Luc 12 April 2018 (has links)
Dans ce mémoire, nous adressons l'efficacité du marché financier de l'électricité en Amérique du Nord. Nous regardons spécifiquement la complexité des modèles à terme et la qualité de leurs prévisions. Nous concentrons notre étude sur deux modèles à terme, le modèle simple de Black et Scholes et un plus complexe, défini par Pilipovic. Nous regardons six marchés dans les États-Unis comme la MidColombia, le NP15, le ComEd, le Cinergy, le PJM et le NePool. La plage des données quotidiennes utilisées est de 1997 à 2002, soit pré et post Enron. Nous avons incorporé dans les modèles les propriétés stochastiques fondamentales associées aux prix à terme comme la diffusion de saut et moyenne inversée. Nous employons le facteur de corrélation pour étudier les modèles contre des prix passés et les données projetés. Nos résultats montrent que Black-Scholes est légèrement supérieur pour prévoir le prix court à terme. Les deux modèles ne sont pas appropriés pour l'évaluation à long terme. / In this thesis, we address the efficiency of the financial market of electricity in North America. We specifically look at the complexity of future models and the quality of the forecast. We focus our study on two future models, from a basic model, the Black-Scholes to a more complex, one defined by Pilipovic. We look at six markets in United-States as Mid-Colombia, NP15, ComEd, Cinergy, PJM and NePool. The daily data range from 1997 to 2 002, as pre and post Enron. We incorporated fundamental stochastic properties associated to spot and futures prices as jump diffusion and mean reversion. We use a correlation factor to define the fitness of the models against past and real prices. Our findings show that Black-Scholes is slightly better to foresee short term price. Both models are not appropriate for long term pricing.
194

Les investisseurs protégés en droit financier / Protected investors in financial law

Tehrani, Adrien 29 October 2013 (has links)
En droit financier, la conception des investisseurs protégés apparaît imprécise, alors que le dispositif juridique de protection est composé d’un grand nombre de mesures. Le contraste est saisissant. La première partie de cette recherche souligne la nécessité d’une clarification. Le flou entourant les investisseurs protégés est détaillé et ses conséquences sur l’objectif de protection, d’une part, et sur le dispositif de protection, d’autre part, sont mises en lumière. Plusieurs questions se posent, relatives à la notion d’investisseur comme à la logique et aux critères de protection. Source d’insécurité juridique, une conception indéterminée des investisseurs protégés pèse de différentes manières sur la qualité de la protection. La seconde partie est un essai de clarification qui porte sur la notion juridique d’investisseur, d’une part, et sur la politique juridique de protection, d’autre part. Il est ainsi proposé d’introduire une définition légale de l’investisseur dans le Code monétaire et financier, en s’appuyant sur les notions de sujet de droit et d’acte d’investissement. Une définition juridique de l’acte d’investissement contribue aussi à distinguer la notion juridique d’investisseur, d’un côté, et celles d’actionnaire, de client et de consommateur, de l’autre. La politique de protection envisagée ensuite s’appuie sur des axes connus mais qui gagnent à être réaffirmés et précisés. La pleine mise en oeuvre de cette politique impose alors, compte tenu aussi des catégories redéfinies d’investisseur et d’investisseur qualifié, d’élaborer une nouvelle catégorie juridique d’intervenants sur les marchés financiers. / In financial law, the conception of “protected investors” appears to reveal many uncertainties while at the same time, investor protection measures are numerous. This raises a number of questions. The first part of this research shows that there is a need to clarify this conception. Such a need results mainly from the detailed description of existing uncertainties and their negative consequences on investor protection objective and measures. These difficulties, which are about the concept of investor, the logic of the protection and its criteria, are a source of legal uncertainty. As a result, the quality of the protection is undermined in many different ways. The second part of this research is an attempt to clarify these points. It focuses on the legal concept of investor and on investor protection policy. The idea is to amend the legislative part of the French Monetary and Financial Code to introduce a definition of the word « investor », which relies on the suggestion that an investor should have legal personality and that there should be an act of investment. The legal definition suggested for the concept of “act of investment” also helps to draw distinctions between the legal concept of investor on the one hand, and those of shareholder, client and consumer, on the other hand. The investor protection policy which is then described lies on grounds that may look familiar, but to state them more precisely appears to be useful. For this policy to be fully implemented, and taking into account the definitions or amendments brought to the categories of “investor” and of “qualified investor”, a new legal category of actors in the financial markets needs to be elaborated.
195

Le contrôle du juge financier sur les marchés publics locaux / Financial judge control on local government procurement

Ndinga, Crépin 20 November 2017 (has links)
L’attention portée par le juge financier aux marchés publics locaux n’est pas nouvelle. Auparavant, avant la création des chambres régionales des comptes en 1982, le contrôle financier des marchés publics locaux était partagé entre la cour des comptes et les trésoriers-payeurs généraux. Mais le système adopté en 1938 était critiqué car le t.p.g. réunissait les deux qualités d’agent de contrôle et de responsable subsidiaire des irrégularités qu’il découvrait. Ce système n’apparaissait plus compatible avec les principes introduits par la loi de décentralisation du 2 mars 1982 qui créa les CRC auxquelles était transféré le contrôle des marchés publics locaux. En 1982, trois missions traditionnelles avaient été confiées aux CRC dans le domaine des marchés publics: le jugement des comptes, l’examen de la gestion et le contrôle budgétaire. Á la suite d’une réforme législative opérée par la loi du 6 février 1992, une quatrième attribution leur avait été confiée : l’examen des conventions relatives aux marchés publics et aux dsp. Longtemps, les magistrats financiers, faute de temps et de moyens ont toujours privilégié le contrôle de la régularité de la passation et de l’exécution des marchés publics au détriment du contrôle de leur qualité (efficacité). Pour s’adapter à la nouvelle dynamique de la gestion publique locale, les magistrats des CRC se rapprochent, aujourd’hui, des méthodes anglo-saxonnes qui analysent la qualité de la gestion au travers de trois critères, dits des « trois e » : économie, efficience et efficacité. Si le contrôle de la régularité des marchés publics reste indispensable, il doit désormais être associé au contrôle de la performance et des résultats. / The attention paid by financial justice to local public markets is not new. previously, before the creation of the regional audit chambers in 1982, financial control of local procurement was shared between the court of auditors and the general paying treasurers. But the system adopted in 1938 was criticized because the t.p.g. brought together the two qualities of agent control and subsidiary responsible for the irregularities he discovered. This system appeared more consistent with the principles introduced by the law of decentralization of march 2, 1982, who created the CRC which was taken in the control of the local procurement. In 1982, three traditional missions had been entrusted to the CRC in the area of public procurement: judgment of auditors, review of the management and budgetary control. following a legislative reform made by the law of february 6, 1992, a fourth allocation had been assigned: examination of the conventions relating to public procurement and the dsp. Long, financial magistrates, for lack of time and means have always favored control of the regularity of procurement and enforcement of public procurement at the expense of their quality (effectiveness) control. To adapt to the new dynamics of the local public management, the magistrates of the CRC are approaching, today, anglo-saxon methods that analyze the quality of management through three criteria, so-called "triple-e": economy, efficiency and effectiveness. If control of the regularity of public procurement remains indispensable, it must now be associated with the control of performance and results.
196

Understanding co-movements in macro and financial variables

D'Agostino, Antonello 09 January 2007 (has links)
Over the last years, the growing availability of large datasets and the improvements in the computational speed of computers have further fostered the research in the fields of both macroeconomic modeling and forecasting analysis. A primary focus of these research areas is to improve the models performance by exploiting the informational content of several time series. Increasing the dimension of macro models is indeed crucial for a detailed structural understanding of the economic environment, as well as for an accurate forecasting analysis. As consequence, a new generation of large-scale macro models, based on the micro-foundations of a fully specified dynamic stochastic general equilibrium set-up, has became one of the most flourishing research areas of interest both in central banks and academia. At the same time, there has been a revival of forecasting methods dealing with many predictors, such as the factor models. The central idea of factor models is to exploit co-movements among variables through a parsimonious econometric structure. Few underlying common shocks or factors explain most of the co-variations among variables. The unexplained component of series movements is on the other hand due to pure idiosyncratic dynamics. The generality of their framework allows factor models to be suitable for describing a broad variety of models in a macroeconomic and a financial context. The revival of factor models, over the recent years, comes from important developments achieved by Stock and Watson (2002) and Forni, Hallin, Lippi and Reichlin (2000). These authors find the conditions under which some data averages become collinear to the space spanned by the factors when, the cross section dimension, becomes large. Moreover, their factor specifications allow the idiosyncratic dynamics to be mildly cross-correlated (an effect referred to as the 'approximate factor structure' by Chamberlain and Rothschild, 1983), a situation empirically verified in many applications. These findings have relevant implications. The most important being that the use of a large number of series is no longer representative of a dimensional constraint. On the other hand, it does help to identify the factor space. This new generation of factor models has been applied in several areas of macroeconomics and finance as well as for policy evaluation. It is consequently very likely to become a milestone in the literature of forecasting methods using many predictors. This thesis contributes to the empirical literature on factor models by proposing four original applications. <p><p>In the first chapter of this thesis, the generalized dynamic factor model of Forni et. al (2002) is employed to explore the predictive content of the asset returns in forecasting Consumer Price Index (CPI) inflation and the growth rate of Industrial Production (IP). The connection between stock markets and economic growth is well known. In the fundamental valuation of equity, the stock price is equal to the discounted future streams of expected dividends. Since the future dividends are related to future growth, a revision of prices, and hence returns, should signal movements in the future growth path. Though other important transmission channels, such as the Tobin's q theory (Tobin, 1969), the wealth effect as well as capital market imperfections, have been widely studied in this literature. I show that an aggregate index, such as the S&P500, could be misleading if used as a proxy for the informative content of the stock market as a whole. Despite the widespread wisdom of considering such index as a leading variable, only part of the assets included in the composition of the index has a leading behaviour with respect to the variables of interest. Its forecasting performance might be poor, leading to sceptical conclusions about the effectiveness of asset prices in forecasting macroeconomic variables. The main idea of the first essay is therefore to analyze the lead-lag structure of the assets composing the S&P500. The classification in leading, lagging and coincident variables is achieved by means of the cross correlation function cleaned of idiosyncratic noise and short run fluctuations. I assume that asset returns follow a factor structure. That is, they are the sum of two parts: a common part driven by few shocks common to all the assets and an idiosyncratic part, which is rather asset specific. The correlation<p>function, computed on the common part of the series, is not affected by the assets' specific dynamics and should provide information only on the series driven by the same common factors. Once the leading series are identified, they are grouped within the economic sector they belong to. The predictive content that such aggregates have in forecasting IP growth and CPI inflation is then explored and compared with the forecasting power of the S&P500 composite index. The forecasting exercise is addressed in the following way: first, in an autoregressive (AR) model I choose the truncation lag that minimizes the Mean Square Forecast Error (MSFE) in 11 years out of sample simulations for 1, 6 and 12 steps ahead, both for the IP growth rate and the CPI inflation. Second, the S&P500 is added as an explanatory variable to the previous AR specification. I repeat the simulation exercise and find that there are very small improvements of the MSFE statistics. Third, averages of stock return leading series, in the respective sector, are added as additional explanatory variables in the benchmark regression. Remarkable improvements are achieved with respect to the benchmark specification especially for one year horizon forecast. Significant improvements are also achieved for the shorter forecast horizons, when the leading series of the technology and energy sectors are used. <p><p>The second chapter of this thesis disentangles the sources of aggregate risk and measures the extent of co-movements in five European stock markets. Based on the static factor model of Stock and Watson (2002), it proposes a new method for measuring the impact of international, national and industry-specific shocks. The process of European economic and monetary integration with the advent of the EMU has been a central issue for investors and policy makers. During these years, the number of studies on the integration and linkages among European stock markets has increased enormously. Given their forward looking nature, stock prices are considered a key variable to use for establishing the developments in the economic and financial markets. Therefore, measuring the extent of co-movements between European stock markets has became, especially over the last years, one of the main concerns both for policy makers, who want to best shape their policy responses, and for investors who need to adapt their hedging strategies to the new political and economic environment. An optimal portfolio allocation strategy is based on a timely identification of the factors affecting asset returns. So far, literature dating back to Solnik (1974) identifies national factors as the main contributors to the co-variations among stock returns, with the industry factors playing a marginal role. The increasing financial and economic integration over the past years, fostered by the decline of trade barriers and a greater policy coordination, should have strongly reduced the importance of national factors and increased the importance of global determinants, such as industry determinants. However, somehow puzzling, recent studies demonstrated that countries sources are still very important and generally more important of the industry ones. This paper tries to cast some light on these conflicting results. The chapter proposes an econometric estimation strategy more flexible and suitable to disentangle and measure the impact of global and country factors. Results point to a declining influence of national determinants and to an increasing influence of the industries ones. The international influences remains the most important driving forces of excess returns. These findings overturn the results in the literature and have important implications for strategic portfolio allocation policies; they need to be revisited and adapted to the changed financial and economic scenario. <p><p>The third chapter presents a new stylized fact which can be helpful for discriminating among alternative explanations of the U.S. macroeconomic stability. The main finding is that the fall in time series volatility is associated with a sizable decline, of the order of 30% on average, in the predictive accuracy of several widely used forecasting models, included the factor models proposed by Stock and Watson (2002). This pattern is not limited to the measures of inflation but also extends to several indicators of real economic activity and interest rates. The generalized fall in predictive ability after the mid-1980s is particularly pronounced for forecast horizons beyond one quarter. Furthermore, this empirical regularity is not simply specific to a single method, rather it is a common feature of all models including those used by public and private institutions. In particular, the forecasts for output and inflation of the Fed's Green book and the Survey of Professional Forecasters (SPF) are significantly more accurate than a random walk only before 1985. After this date, in contrast, the hypothesis of equal predictive ability between naive random walk forecasts and the predictions of those institutions is not rejected for all horizons, the only exception being the current quarter. The results of this chapter may also be of interest for the empirical literature on asymmetric information. Romer and Romer (2000), for instance, consider a sample ending in the early 1990s and find that the Fed produced more accurate forecasts of inflation and output compared to several commercial providers. The results imply that the informational advantage of the Fed and those private forecasters is in fact limited to the 1970s and the beginning of the 1980s. In contrast, during the last two decades no forecasting model is better than "tossing a coin" beyond the first quarter horizon, thereby implying that on average uninformed economic agents can effectively anticipate future macroeconomics developments. On the other hand, econometric models and economists' judgement are quite helpful for the forecasts over the very short horizon, that is relevant for conjunctural analysis. Moreover, the literature on forecasting methods, recently surveyed by Stock and Watson (2005), has devoted a great deal of attention towards identifying the best model for predicting inflation and output. The majority of studies however are based on full-sample periods. The main findings in the chapter reveal that most of the full sample predictability of U.S. macroeconomic series arises from the years before 1985. Long time series appear<p>to attach a far larger weight on the earlier sub-sample, which is characterized by a larger volatility of inflation and output. Results also suggest that some caution should be used in evaluating the performance of alternative forecasting models on the basis of a pool of different sub-periods as full sample analysis are likely to miss parameter instability. <p><p>The fourth chapter performs a detailed forecast comparison between the static factor model of Stock and Watson (2002) (SW) and the dynamic factor model of Forni et. al. (2005) (FHLR). It is not the first work in performing such an evaluation. Boivin and Ng (2005) focus on a very similar problem, while Stock and Watson (2005) compare the performances of a larger class of predictors. The SW and FHLR methods essentially differ in the computation of the forecast of the common component. In particular, they differ in the estimation of the factor space and in the way projections onto this space are performed. In SW, the factors are estimated by static Principal Components (PC) of the sample covariance matrix and the forecast of the common component is simply the projection of the predicted variable on the factors. FHLR propose efficiency improvements in two directions. First, they estimate the common factors based on Generalized Principal Components (GPC) in which observations are weighted according to their signal to noise ratio. Second, they impose the constraints implied by the dynamic factors structure when the variables of interest are projected on the common factors. Specifically, they take into account the leading and lagging relations across series by means of principal components in the frequency domain. This allows for an efficient aggregation of variables that may be out of phase. Whether these efficiency improvements are helpful to forecast in a finite sample is however an empirical question. Literature has not yet reached a consensus. On the one hand, Stock and Watson (2005) show that both methods perform similarly (although they focus on the weighting of the idiosyncratic and not on the dynamic restrictions), while Boivin and Ng (2005) show that SW's method largely outperforms the FHLR's and, in particular, conjecture that the dynamic restrictions implied by the method are harmful for the forecast accuracy of the model. This chapter tries to shed some new light on these conflicting results. It<p>focuses on the Industrial Production index (IP) and the Consumer Price Index (CPI) and bases the evaluation on a simulated out-of sample forecasting exercise. The data set, borrowed from Stock and Watson (2002), consists of 146 monthly observations for the US economy. The data spans from 1959 to 1999. In order to isolate and evaluate specific characteristics of the methods, a procedure, where the<p>two non-parametric approaches are nested in a common framework, is designed. In addition, for both versions of the factor model forecasts, the chapter studies the contribution of the idiosyncratic component to the forecast. Other non-core aspects of the model are also investigated: robustness with respect to the choice of the number of factors and variable transformations. Finally, the chapter performs a sub-sample performances of the factor based forecasts. The purpose of this exercise is to design an experiment for assessing the contribution of the core characteristics of different models to the forecasting performance and discussing auxiliary issues. Hopefully this may also serve as a guide for practitioners in the field. As in Stock and Watson (2005), results show that efficiency improvements due to the weighting of the idiosyncratic components do not lead to significant more accurate forecasts, but, in contrast to Boivin and Ng (2005), it is shown that the dynamic restrictions imposed by the procedure of Forni et al. (2005) are not harmful for predictability. The main conclusion is that the two methods have a similar performance and produce highly collinear forecasts. <p> / Doctorat en sciences économiques, Orientation économie / info:eu-repo/semantics/nonPublished
197

Analyse et comparaison des stratégies d’internationalisation des banques / Analysis and comparison of bank's internationalization strategies

Troudart, Jessy 06 December 2012 (has links)
Les stratégies d’internationalisation des banques européennes sont-elles efficaces ? Cette thèse analyse le lien entre l’internationalisation des banques et leur performance. L’objectif étant de vérifier s’il existe des modalités d’implantation qui expliquent les écarts de bénéfices entre les établissements bancaires européens. Nous nous focalisons sur trois types de stratégies d’implantation : l’installation de filiales, les alliances ou partenariats avec des entreprises étrangères et les fusions et acquisitions transfrontalières. Parmi les filiales étrangères nous distinguons les filiales qui portent l’enseigne du groupe de celles qui portent un autre nom. Cette distinction nous permet d’analyser l’impact sur la performance du choix de garder ou non l’enseigne du groupe lors du déploiement international. Nos résultats montrent qu’il existe bien des modalités expliquant des différences de rentabilité entre les établissements. En effet, il semble qu’une implantation via des filiales portant le nom du groupe bancaire ait un impact négatif sur la performance. Par ailleurs, nous avons aussi relevé que la réalisation de partenariats transfrontaliers dans plus de dix secteurs différents n’est pas bénéfique pour la banque. / Are European banks’ cross-border strategies effective? This thesis analyzes the relationship between European banks’internationalization strategies and their performance. We investigate whether there are internationalization strategies that explain differences between European banks’ profits. We focus on three types of implementation strategies: at first, the installation of subsidiaries, then, alliances or partnerships with foreign companies and last but not least, cross-border mergers and acquisitions. Among foreign subsidiaries we distinguish those which carry the the group’s brand from those which carry a different name. This distinction allows us to analyze the results a bank can expect by keeping its company name while expanding overseas. Our results show that there are strategies that explain differences in profitability between institutions. Indeed, it appears that internationalization through subsidiaries with a brand perspective has a negative impact on performance. In addition, we also note that the implementation of cross-border partnerships in more than ten different sectors is not beneficial for the bank.
198

À quoi sert le renseignement financier? : de la trace financière à la « fabrique de la criminalité » en Suisse et au Canada

Chaudieu, Killian 06 1900 (has links)
Depuis le début des années 1970 la communauté internationale, sous l’impulsion des États-Unis, a progressivement abordé le blanchiment d’argent sale comme un nouveau problème de sécurité représentant une menace pour la sécurité intérieure des États et l’équilibre du système financier international. La création, en 1989, du Groupe d’action financière (GAFI) lors du sommet du G7 se tenant à Paris, marquera l’engagement politique international en faveur de la lutte contre le blanchiment de capitaux devant constituer « une contribution décisive à la lutte contre les activités criminelles et particulièrement contre le trafic de la drogue et permettre de renforcer la solidité du système financier international » [GAFI, 1991, p. 21]. À travers la publication en 1990, de ses quarante recommandations pour la mise en place d’un régime global de lutte contre le blanchiment de capitaux, les pays membres du GAFI – les membres du G7 auxquels se sont joints, dès la première année, la Commission européenne et huit autres pays dont la Suisse – viennent concrétiser l’« invention d’un nouveau crime » [Amicelle, 2016, p. 37] : le blanchiment d’argent et la nécessité d’une nouvelle forme de réaction sociale contre la criminalité lucrative. Créé au départ pour lutter contre les revenus issus du trafic de drogue, le dispositif englobe aujourd’hui l’ensemble des revenus issus d’une activité criminelle. En 2001, il a été adapté pour lutter contre le financement du terrorisme et en 2012 élargi aux infractions fiscales pénales et au financement de la prolifération des armes de destructions massives. Ainsi, le dispositif anti-blanchiment est aujourd’hui un instrument théoriquement mobilisable pour lutter contre toutes les formes de criminalité et toutes les personnes (physiques ou morales) – « des plus faibles aux plus puissantes » [Amicelle, 2014, p. 88] – associées à des flux financiers illicites. Plus de trente ans après sa création, le GAFI représente un réseau mondial de plus de 190 juridictions ayant adopté ses recommandations, conduisant en 2019 son président à célébrer « trente ans de succès » et à affirmer que la « valeur de l'organisation pour la sécurité de nos nations et l'intégrité du système financier international n'ont jamais été aussi claires » [GAFI, 2019, p. 5]. À travers l’adaptation de leur législation, la plupart des pays, se sont dotés d’un dispositif de lutte contre le blanchiment de capitaux et le financement du terrorisme (LBC/FT) reposant sur des pratiques inédites de coopération et d’échanges d’informations entre des acteurs provenant du monde de la finance et des acteurs publics d’application de la loi [Amicelle, 2018 ; Helgesson et Mörth, 2019 ; Huysmans, 2014 ; Sheptycki, 2002]. S'appuyant sur les travaux de Latour, de Goede [2018] introduit le concept de la « chaîne de sécurité » pour décrire l’architecture générale du dispositif de LBC/FT composée de trois maillons, décrivant la division du travail et les tâches relatives à la mise en œuvre d’un modèle théorique de policing guidé par le renseignement – financier – ou d’« Intelligence-led policing ». Le premier maillon concerne les institutions financières désignées comme entités déclarantes, obligées par la loi d’organiser la traçabilité des opérations financières devant supporter la surveillance, la détection et le signalement des opérations suspectes en matière de BC/FT dans leurs établissements. Le deuxième maillon concerne la cellule de renseignement financier (CRF) désignée dans chaque pays, comme le centre national chargé de la collecte et l’analyse des déclarations d’opérations suspectes et des autres informations concernant le BC/FT et de la production de renseignement financier mobilisable par les acteurs publics d’application de la loi – dernier maillon de la chaîne – devant lutter contre la criminalité en s’attaquant aux flux financiers illicites. À travers le concept de la « chaîne », de Geode [2018] décrit le dispositif anti-blanchiment selon un processus linéaire, suivant le cheminement des transactions suspectes – les traces financières – qui sont successivement « collectées, stockées, transférées et analysées afin d’aboutir à des actes de sécurité (par exemple des avoirs gelés, des comptes fermés, et des condamnations judiciaires) » (p. 27). Dans cette nouvelle configuration du policing – financier – , le processus de « fabrique de la criminalité » ou de « making crime » introduit par Ericson [1981] – pour décrire le processus à travers lequel les acteurs du policing sont confrontés à des problèmes de sécurité qu’ils vont transformer, en fonction de leur réaction, en crime et en criminel – se déplace a priori, dans une logique de « multilatéralisation du policing », des seules organisations policières vers d’autres acteurs devenant de nouveaux « promoteurs » et « prestataires » du policing [Bayley et Shearing, 2001]. Jusqu’ici, de nombreuses études ont été consacrées à l’analyse du premier maillon de la « chaine de sécurité » questionnant l’implication des acteurs financiers dans la mise en œuvre « réticente » des mesures de vigilance, de détection et de signalement des flux financiers illicites au sein de leurs institutions. Cependant, très peu d’études prêtent attention aux autres maillons de la « chaîne de sécurité » et encore moins lorsqu’il s’agit d’analyser la « chaîne de sécurité » dans son ensemble, seul moyen pour saisir empiriquement l’étendue des relations et la diversité des dispositifs de production de sécurité mis en œuvre, supportant dans sa globalité le processus de réaction sociale aux pratiques de BC/FT. Ainsi, c’est ce vide de connaissances académiques que cette recherche vise à combler à travers l’analyse empirique de la mise en œuvre du dispositif de LBC/FT en Suisse et au Canada. Plus de 30 ans après la création du GAFI et la mise en place par les États d’un dispositif de LBC/FT reposant sur un modèle opérant de policing guidé par le renseignement financier, cette recherche vise à comprendre dans sa globalité : « À quoi sert le renseignement financier ? » Répondre à cette question de recherche, c’est contribuer dans une triple dimension à (a) l’analyse de la mise en œuvre empirique d’un modèle opérant de policing guidé par le renseignement dans une environnement particulier : l’environnement financier, (b) dépassant la vision lacuneuse des travaux centrés sur les acteurs financiers de l’anti-blanchiment et (c) saisir la manière dont les pratiques de production et d’utilisation du renseignement financier contribuent à analyser dans son ensemble tout le processus qui détermine la visibilité des cas de BC/FT, leur signalement à une autorité de contrôle et leur éventuelle poursuite et condamnation. Le dispositif anti-blanchiment n’ayant plus vocation à cibler une forme de criminalité lucrative par rapport à une autre, notre étude est aussi une analyse du processus de « fabrique de la criminalité » décrit par Ericson [1981], par lequel les acteurs du policing financier vont désigner, en fonction de leurs intérêts et de leurs règles propres, les comportements criminels portés à leur connaissance qu’ils vont décider de poursuivre, d’ignorer, d’infirmer ou de vérifier. Alors cette recherche soutiendra la thèse que malgré toutes les promesses implicites portées par la reconfiguration des activités de policing dans ses logiques contemporaines de fonctionnement – redéfinissant a priori, la division du travail et la répartition des tâches situées au cœur du processus de « fabrique de la criminalité » –, l’exemple de la lutte anti-blanchiment en Suisse et au Canada, montre comment les acteurs publics d’application de la loi (APAL) ont su conserver la mainmise sur le processus de « making crime » en développant des stratégies pour détourner les normes anti-blanchiment et les dispositifs qu’elles impliquent, à leur avantage dans la poursuite de leurs priorités opérationnelles. Ainsi, les APAL replacent – dans un mouvement contre-intuitif aux reconfigurations contemporaines des activités de policing – les relations de pouvoir, associées au contrôle et au maintien de l’ordre, dans un rapport de verticalité entre l’État et la société et dont les manifestations contribuent à reproduire la « fabrique de la criminalité » selon, comme l’avait noté Manning [2010], « un ensemble d’habitudes et de suppositions axées sur le trope du crime qui envisage uniquement la nécessité de contrôler, de dissuader et de punir les contestataires visibles et connus » – justifiant aussi une analyse en termes de gestion différentielle des illégalismes. À travers l’accès à un matériau empirique – jamais mobilisé auparavant – dans deux pays membres fondateurs du GAFI, cette recherche repose sur une approche comparée à l’échelle internationale et une méthodologie d’analyse mixte, de la base de données, dénominalisées, colligeant l’ensemble des déclarations d’opérations suspectes et des informations associées reçues par la CRF suisse entre 2004 et 2014 – analyse quantitative – et des entretiens auprès d’une quarantaine d’agents au sein de la CRF suisse et d’un panel « représentatif » de l’ensemble des acteurs publics d’application de la loi habilités à mobiliser le renseignement financier en Suisse et au Canada – analyse qualitative. Alors cette recherche contribue empiriquement et conceptuellement à la littérature sur les transformations du policing soutenues par les modèles de policing guidé par le renseignement – ou d’« Intelligence-led policing » –, évitant l’écueil de penser les processus génériques de renseignement comme les manières de les organiser. De plus, cette recherche questionne à nouveaux frais la réaction sociale aux différentes formes de criminalité lucrative, justifiant une analyse en termes de gestion différentielle des illégalismes renvoyant aux diverses modalités pratiques de jeu avec les règles légales tout en situant socialement les groupes qui en usent. / Since the early 1970s, the international community, led by the United States, has progressively addressed money laundering as a new security problem representing a threat to the security of states and financial system. The creation of the Financial Action Task Force (FATF) in 1989 at the G7 summit in Paris marked the international political commitment to combat money laundering as “a decisive contribution to the fight against criminal activities, particularly drug trafficking, and will improve the soundness of the international financial system” [FATF, 1991, p. 20]. The FATF's forty recommendations, published in 1990, for the establishment of a global anti-money laundering regime, embody the “invention of a new crime” [Amicelle, 2016, p. 37]: money laundering and the need for a new form of social reaction against profit-making crime. Initially created to combat drug trafficking, the system now covers all profit from criminal activity. In 2001, it was adapted to combat the financing of terrorism and in 2012 extended to cover criminal tax offences and the financing of the proliferation of weapons of mass destruction. Thus, the anti-money laundering system is today an instrument that can theoretically be mobilised to combat all forms of crime and all persons – “from the weakest to the most powerful” [Amicelle, 2014, p. 88] - associated with illicit financial flows. More than thirty years after its creation, the FATF represents a global network of more than 190 jurisdictions that have adopted its Recommendations, leading its President in 2019 to celebrate “thirty years of success” and to assert that the “value of the organisation to the security of our nations and the integrity of the international financial system has never been clearer” [FATF, 2019, p. 5]. Today, most countries have anti-money laundering and combating the financing of terrorism (AML/CFT) systems based on innovative practices of cooperation and information exchange between financial and public law enforcement actors [Amicelle, 2018; Helgesson and Mörth, 2019; Huysmans, 2014; Sheptycki, 2002]. Building on Latour's work, de Goede [2018] introduces the concept of the “security chain” to describe the general architecture of the AML/CFT system composed of three links, describing the division of labour and tasks related to the implementation of a theoretical model of intelligence-led policing. The first link concerns the financial institutions designated as reporting entities, which are obliged by law to organise the traceability of financial transactions that should support the monitoring, detection and reporting of suspicious ML/FT transactions in their institutions. The second link concerns the financial intelligence unit (FIU) designated in each country as the national centre responsible for collecting and analysing suspicious transaction reports and other ML/FT information and producing financial intelligence that can be mobilised by public law enforcement actors - the last link in the chain - to fight crime by tackling illicit financial flows. Through the concept of the “chain”, de Geode [2018] describes the anti-money laundering system as a linear process, following the path of suspicious transactions - financial traces - which are successively “collected, stored, transferred and analysed in order to lead to security acts (e.g. frozen assets, closed accounts, and judicial convictions)” (p. 27). In this new configuration of financial policing, the process of “making crime” introduced by Ericson [1981] - to describe the process through which policing actors are confronted with security problems which they will transform, according to their reaction, into crime and criminality - is shifted a priori, in a logic of “multilateralization of policing”, from police organisations alone to other actors who become new “promoters” and “providers” of policing [Bayley and Shearing, 2001]. Many studies have been devoted to the analysis of the first link of the “security chain”, questioning the involvement of financial actors in the “reluctant” implementation of vigilance measures, detection and reporting of illicit financial flows within their institutions. However, very few studies pay attention to the other links in the “security chain” and even fewer analyse the “security chain” as a whole, which is the only way to empirically grasp the extent of the relationships and the diversity of the security production mechanisms implemented, which support the whole process of social reaction to ML/FT practices. It is this gap in academic knowledge that this research aims to fill through the empirical analysis of the implementation of the AML/CFT system in Switzerland and Canada. More than 30 years after the creation of the FATF and the implementation by States of an AML/CFT system based on an operational model of policing led by financial intelligence, this research aims to understand in its entirety: “What is financial intelligence used for?” Answering this research question means contributing in a triple dimension to (a) the analysis of the empirical implementation of an operating model of intelligence-led policing in a particular environment: the financial environment, (b) going beyond the flawed vision of work focused on the financial actors of anti-money laundering and (c) grasping the way in which the practices of production and use of financial intelligence contribute to analyse as a whole the process that determines the visibility of ML/FT cases, their reporting to a supervisory authority and their possible prosecution and conviction. As the anti-money laundering system is no longer intended to target one form of lucrative crime over another, our study is also an analysis of the “making crime” process described by Ericson [1981], whereby financial policing actors will designate, according to their own interests and rules, the criminal behaviour brought to their attention that they will decide to pursue, ignore, deny or verify. This research will therefore support the thesis that despite all the implicit promises made by the reconfiguration of policing activities in its contemporary operating logics - redefining a priori the division of labour and the distribution of tasks located at the heart of the “making crime” process –, the example of the fight against money laundering in Switzerland and Canada shows how public law enforcement agencies (APAL) have been able to maintain control over the process of “making crime” by developing strategies to turn anti-money laundering norms and the mechanisms they imply to their advantage in the pursuit of their operational priorities. Thus, public law enforcement actors situate the power relations associated with policing in a vertical relationship between state and society, the manifestations of which help to reproduce the “making crime” according to, as Manning [2010] noted, a set of habits and assumptions that “envisions only the need to control, deter and punish the visible and known contestants”. Through access to empirical material - never before mobilised - in two founding member countries of the FATF, this research is based on a comparative approach on an international scale and a mixed methodology of analysis of the database of all suspicious transaction reports and related information received by the Swiss FIU between 2004 and 2014 - quantitative analysis - and forty interviews with agents within the Swiss FIU and a "representative" panel of all public law enforcement actors empowered to mobilise financial intelligence in Switzerland and Canada - qualitative analysis. Thus, this research contributes empirically and conceptually to the literature on the transformations of policing supported by models of intelligence-led policing, avoiding the pitfall of thinking about generic intelligence processes as well as ways of organizing them. Moreover, this research questions the social reaction to the different forms of lucrative crime, justifying an analysis in terms of differential management of illegalisms referring to the various practical modalities of playing with the legal rules while socially situating the groups that use them.
199

Essai sur le système financier de la République Démocratique du Congo : une contribution à l amélioration de la supervision bancaire / Essays on the Democratic Republic of Congo financial system : a contribution to the improvement of banking supervision.

Lukuitshi- lua-Nkombe, Albert Malaika 16 September 2005 (has links)
RESUME La construction d un systeme financier sain et concurrentiel capable de mobiliser de facon substantielle des hauts niveaux d epargne et l amelioration des normes de supervision bancaire et financier pour assurer la stabilite du systeme sont deux des recommandations souvent faites par les institutions internationales pour permettre aux pays africains de participer pleinement a l expansion de la prosperite mondiale et a beneficier de la globalisation du commerce des services financiers. Cette these essaie de trouver les voies et moyens susceptibles de contribuer a l amelioration et au renforcement de la supervision bancaire au Congo, et in fine [le secteur bancaire etant le plus important du systeme financier] permettre l eclosion d un systeme financier moderne et efficace qui rencontre les normes internationales. Dans une premiere etape qui consiste en un etat des lieux du systeme financier congolais et en une analyse critique de la gestion bancaire ( chapitre 1 et chapitre 2 ); les analyses : - ressortent les caracteristiques du systeme financier congolais ; - soulignent les contraintes structurelles ayant entrave trois decennies de gestion bancaire ; - evaluent les chances de succes des reformes mises en oeuvre par les autorites; - proposent en des termes generaux, les ameliorations a porter au cadre reglementaire et de supervision du secteur bancaire afin de reduire les imperfections, de renforcer l efficacite et la stabilite du systeme dans son ensemble. Dans une seconde etape, un menu plus restreint de propositions faites au terme de l etat des lieux du systeme financier et de l analyse critique de la gestion bancaire est passe en revue. Les contributions de la these dans cette etape consistent : - en la proposition d outils concrets de supervision bancaire pour faire face a la carence d outils de gestion prudentielle preventive ; (chapitre 3) - en recommandations pour ameliorer : la politique de provisionnement des creances et le fonctionnement des institutions de microfinance ; ( chapitre 4) - a degager dans une demarche d analyse strategique, les pistes susceptibles de contribuer a l amelioration de la sante et la solidite du systeme financier congolais apres evaluation prealable de sa competitivite (chapitre 5) SUMMARY The construction of an healthy and competitive financial system able to mobilize high levels of saving and the improvement of the standards of banking and financial supervision to ensure the stability of the system are two of the recommendations often made by international institutions to help African countries to take part in the expansion of world prosperity and to profit from the globalization of financial services. This thesis tries to find the ways to contribute to the improvement and the reinforcement of the banking supervision in Congo, and in fine [ the banking environment being most significant of the financial system ] to allow the blossoming of a modern and effective financial system which meets international standards. In a first stage which consists in an overview of the Congolese financial system and in a critical analysis of the banking management ( chapter 1 & chapter 2) ; our analyses : - release the characteristics of the Congolese financial system ; - underline the structural constraints having blocked three decades of banking management ; - evaluate the chances of success of the reforms implemented by the authorities ; - propose in general terms, the improvements to be carried in order to reduce the imperfections of the banking supervision, to reinforce the effectiveness and the stability of the banking system. In the second stage, a more restricted menu of proposals made at the end of the first stage is reviewed. The contributions of the thesis in this stage consist: - in the proposal of concrete tools for banking supervision to face the deficiency of preventive prudential management tools; ( chapter 3) - in recommendations to improve : the policy of provisioning bad debts and the management of Microfinance institutions; (chapter 4) - in an evaluation of the competitiveness of the Congolese financial system and in the identification of ways which can contribute to the improvement of its safety and solidity by using a strategic analysis approach. ( chapter 5)
200

Trois essais en finance de marché / Three essays in finance of markets

Tavin, Bertrand 07 November 2013 (has links)
Le but de cette thèse est l'étude de certains aspects d'un marché financier comportant plusieurs actifs risqués et des options écrites sur ces actifs. Dans un premier essai, nous proposons une expression de la distribution implicite du prix d'un actif sous-jacent en fonction du smile de volatilité associé aux options écrites sur cet actif. L'expression obtenue pour la densité implicite prend la forme d'une densité log-normale plus deux termes d'ajustement. La mise en œuvre de ce résultat est ensuite illustrée à travers deux applications pratiques. Dans le deuxième essai, nous obtenons deux caractérisations de l'absence d'opportunité d'arbitrage en termes de fonctions copules. Chacune de ces caractérisations conduit à une méthode de détection des situations d'arbitrage. La première méthode proposée repose sur une propriété particulière des copules de Bernstein. La seconde méthode est valable dans le cas bivarié et tire profit de résultats sur les bornes de Fréchet-Hoeffding en présence d'information additionnelle sur la dépendance. Les résultats de l'utilisation de ces méthodes sur des données empiriques sont présentés. Enfin, dans le troisième essai, nous proposons une approche pour couvrir avec des options sur spread l'exposition au risque de dépendance d'un portefeuille d'options écrites sur deux actifs. L'approche proposée repose sur l'utilisation de deux modèles paramétriques de dépendance que nous introduisons: les copules Power Frank (PF) et Power Student's t (PST). Le fonctionnement et les résultats de l'approche proposée sont illustrés dans une étude numérique. / This thesis is dedicated to the study of a market with several risky assets and options written on these assets. In a first essay, we express the implied distribution of an underlying asset price as a function of its options implied volatility smile. For the density, the obtained expression has the form of a log-normal density plus two adjustment terms. We then explain how to use these results and develop practical applications. In a first application we value a portfolio of digital options and in another application we fit a parametric distribution. In the second essay, we propose a twofold characterization of the absence of arbitrage opportunity in terms of copula functions. We then propose two detection methods. The first method relies on a particular property of Bernstein copulas. The second method, valid only in the case of a market with two risky assets, is based upon results on improved Fréchet-Hoeffding bounds in presence of additional information about the dependence. We also present results obtained with the proposed methods applied to empirical data. Finally, in the third essay, we develop an approach to hedge, with spread options, an exposure to dependence risk for a portfolio comprising two-asset options. The approach we propose is based on two parametric models of dependence that we introduce. These dependence models are copulas functions named Power Frank (PF) and Power Student's t (PST). The results obtained with the proposed approach are detailed in a numerical study.

Page generated in 0.0667 seconds