• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 17
  • 2
  • Tagged with
  • 55
  • 33
  • 12
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

L'industrie française des OPCVM : conflit d'intérêt, compétition et incitation illicite / French Mutual Fund Market : conflict of interest, competition and implicit incentive

Tran dieu, Linh 01 December 2011 (has links)
Le marché français, caractérisé en particulier par une forte segmentation, d’une faible sophistication des investisseurs et une domination des banques, serait peu compétitif. Sur le plan théorique, nous cherchons à illustrer, à l’aide des deux modèles simples, les effets d’une absence relative de compétition entre les fonds. Le premier met en évidence le rôle de la compétition dans la création des incitations implicites. Le second tente d’illustrer le fait que cette absence de compétition (liée à la domination des banques sur le marché français) conduirait à une performance plus faible pour les fonds. Sur le plan empirique, nous vérifions, d’une part, l’existence de ce manque de compétition du marché français. D’autre part, nous mettons en évidence l’existence d’un conflit d’intérêt direct entre les investisseurs et les fonds, résultant direct du manque de compétition du marché. Au niveau de la rentabilité des fonds, le manque de compétition du marché reflète dans le fait que les investisseurs ne réagissent pas fortement à la rentabilité relative des fonds. Au niveau des frais, l’insensibilité des investisseurs individuels aux frais des fonds pourrait traduire une moindre concurrence du marché. Nous observons également une discrimination par les frais entre les investisseurs institutionnels et les investisseurs individuels. Ces derniers paient plus chers pour une rentabilité plus faible. Toutefois, le marché commence à montrer des signes de compétition, reflétant dans le fait que les investisseurs individuels commencent à faire attention au rapport qualité-prix des fonds. Par ailleurs, un plus grand degré de sophistication des investisseurs institutionnels pourrait expliquer le fait que nous ne constatons aucun lien entre les frais et la rentabilité des fonds dans ce segment. En effet, ces investisseurs, susceptibles d’être plus sophistiqués, pourraient estimer la qualité de la gestion par des mesures plus complexes de la performance. Enfin, nous fournissons une preuve de l’existence d’un conflit d’intérêt entre les investisseurs et les fonds : les déséconomies d’échelle de performance. / The French market, characterized especially by a strong segmentation, low sophistication of investors and a domination of banks, would not be competitive. On the theoretical side, we try to illustrate, using two simple models, the effects of a lack of competition. The first one highlights the role of competition in the creation of implicit incentives. The second one shows that the lack of competition leads to weak funds’ performance. Empirically, we verify firstly the existence of this lack of competition in the French market. Secondly, we show the existence of a conflict of interest between investors and funds. The lack of competition reflects by the fact that investors do not react strongly to funds’ performance and individual investors are not sensitive to fund fees. We also observe a price discrimination between institutional and individual investors. The latter pays more for lower return. However, the market begins to show some signs of competition. In fact, individual investors start to pay attention to the “price-quality” rapport. In addition, a greater degree of sophistication of institutional investors may explain the fact that we do not obtain any relation between fees and return in this segment. Indeed, these investors may be more sophisticated and could estimate the quality of a fund by more complex measures of performance. Finally, we provide evidence for the existence of a conflict of interest between investors and funds: diseconomies of scale.
22

La «crise» du recensement canadien en 2010 : pourquoi se mobiliser pour s’opposer à un changement méthodologique?

Major, Marie-Claire 02 1900 (has links)
À l’été 2010, le gouvernement canadien a annoncé le remplacement du formulaire long obligatoire par l’Enquête nationale auprès des ménages, un questionnaire facultatif. Ce changement a causé beaucoup de réactions, parce que cela affectera la qualité et la continuité des données recueillies, qui servent à appliquer différents programmes et lois, et qui sont utilisées par de nombreux groupes dans leurs fonctions de recherche et de représentation. Le présent mémoire a pour objectif de comprendre pourquoi le recensement devient parfois le centre d’un conflit politique, quels acteurs sont impliqués, et pour quelles raisons. À l’aide d’une analyse comparative de cas antérieurs dans différents pays, nous identifions trois éléments nécessaires pour que la méthodologie du recensement devienne un enjeu politique. Il s’agit de la présence: (1) d’un aspect identitaire; (2) d’une dimension idéologique qui concerne particulièrement le rôle de l’État et l’action positive; et (3) de programmes ou d’objectifs gouvernementaux qui dépendent directement des données du recensement. Pour évaluer si ces trois facteurs sont également présents au Canada en 2010, nous avons effectué des entrevues avec les groupes qui ont contesté la décision de l’annulation du formulaire long obligatoire. Ces groupes ont contesté la décision devant les tribunaux, et ont évoqué les risques de non-respect du gouvernement envers ses obligations légales, notamment envers la Charte des droits et libertés. L’analyse de ce conflit nous permet aussi d’évaluer les relations entre le gouvernement canadien et la société civile, et le manque de ressources et d’opportunités auquel font face les groupes d’intérêt et les représentants de minorités à la recherche d’équité. / In 2010, the Canadian government announced the cancelation of the long-form mandatory census of 2011. It was replaced by the non-mandatory National Household Survey. Many protests were heard, because the data will be less accurate and there will be no continuity with the previous censuses. This data has many purposes, like the application of laws or governmental programs. Different groups also use it in research and advocacy activities. This master’s thesis analyses different situations of controversy over the census methodology, in various countries, to understand how it becomes a political conflict, who are the actors that get involved and why they do so. We find that 3 conditions are necessary to turn a census into a political battlefield. It is : (1) an identity concern; (2) an ideological dimension, about the role of the State and of affirmative action; and (3) the presence of laws or programs that depend directly on the census data. To test this affirmation, we interviewed groups that contested the decision of the cancelation of the mandatory long-form census in Canada in 2010. They took the case in front of the Courts, and think that the government has now the opportunity to escape from some of its obligations, one of which is the Canadian Charter of Rights and Freedoms. This controversy’s analysis shows patterns in the relations between the Canadian government and the civil society. Interest groups and minorities now face very little opportunity of doing advocacy activities before the federal government.
23

Essays on The Dividend Policy of Financial and non Financial Firms / Essais sur la politique de dividendes des firmes financières et non financières

Wardhana, Leo Indra 13 January 2016 (has links)
L’objectif de cette thèse est d’analyser l’existence de spécificités dans l’utilisation par les banques de la politique de dividende comme moyen de résolution des conflits d’intérêts. Il s’agit également de s’interroger sur l’opportunité d’une réglementation visant à imposer aux firmes le versement de dividendes, dans une perspective d’amélioration de la qualité de la gouvernance. Le premier chapitre analyse l’influence de deux conflits majeurs, dirigeants vs actionnaires et actionnaires vs créanciers. Il montre que les banques prennent en compte les deux types de conflits, la résolution des conflits entre actionnaires et dirigeants revêtant toutefois une importance prédominante. Les banques utilisent les dividendes comme un substitut à de faibles degrés de protection des droits des actionnaires et des créanciers. Le second chapitre explore ces conflits d’intérêt plus avant en analysant l’impact de la concentration de l’actionnariat et du degré d’opacité des banques. Que l’actionnariat soit dispersé ou concentré, un plus fort degré d’opacité favorise les comportements d’expropriation par les insiders (dirigeants ou actionnaires majoritaire) et conduit à des dividendes plus faibles. Un environnement institutionnel plus protecteur des droits des actionnaires ou un régime de supervision strict permettent de limiter l’expropriation. Une réglementation limitant le versement de dividendes, telle que définit dans Bâle III, pourraient renforcer de tels phénomènes. Le dernier chapitre s’interroge sur l’opportunité d’une réglementation de la politique des dividendes et s’intéresse au cas de l’Indonésie caractérisée un faible taux de versement et un faible degré de protection des actionnaires. En cohérence avec la théorie du cycle de vie, une telle réglementation devrait tenir compte du stade de développement de la firme et contraindre uniquement les firmes ayant atteint un stade de maturité, une réglementation uniforme de la politique de dividende n’étant donc pas souhaitable. / This dissertation aims first to investigate whether banks, which have unique characteristics, use dividends to reduce the agency conflicts between their different stakeholders. Another objective is to investigate if the implementation of a regulation of dividend policy is necessary to oblige firms to pay dividends for good governance purposes. In Chapter 1, we examine if bank managers use dividends to reduce agency cost of equity (managers vs. shareholders) and agency cost of debt (shareholders vs. creditors). We show that bank managers use dividends as substitute to weak legal protection and strike a balance in their dividend policy with however a more decisive role played by the agency cost of equity than the one of debt. Chapter 2 further explores if the degree of ownership concentration and the level of asymmetric information (opacity) faced by outsiders influence banks’ dividend payouts. In either concentrated or dispersed ownership structure insiders (managers or majority shareholders) pay lower dividends when the degree of opacity is high. In line with the entrenchment behavior for banks, insiders extract higher levels of private benefits when it might be more difficult to detect such opportunistic behavior. Higher level of shareholder protection and stronger supervisory regimes help to constrain such behavior. These findings have critical policy implications for the implementation of Basel 3 with restrictions on dividend payouts that might reinforce this entrenchment behavior. In the Chapter 3, we investigate if the implementation of a regulation to oblige firms to pay dividends for better governance is desirable. We consider the case of Indonesia, where the regulator plans to implement a mandatory regulation on dividends in a context of declining dividend payments and weak shareholder rights. The findings recommend that firms should only be required to pay dividends when they reach a certain development stage, and action should only be taken against those firms which do not pay dividends, although they should be able to. Overall, dividend policies should not be regulated by one-policy-for-all regulation.
24

Compréhension de contenus visuels par analyse conjointe du contenu et des usages / Combining content analysis with usage analysis to better understand visual contents

Carlier, Axel 30 September 2014 (has links)
Dans cette thèse, nous traitons de la compréhension de contenus visuels, qu’il s’agisse d’images, de vidéos ou encore de contenus 3D. On entend par compréhension la capacité à inférer des informations sémantiques sur le contenu visuel. L’objectif de ce travail est d’étudier des méthodes combinant deux approches : 1) l’analyse automatique des contenus et 2) l’analyse des interactions liées à l’utilisation de ces contenus (analyse des usages, en plus bref). Dans un premier temps, nous étudions l’état de l’art issu des communautés de la vision par ordinateur et du multimédia. Il y a 20 ans, l’approche dominante visait une compréhension complètement automatique des images. Cette approche laisse aujourd’hui plus de place à différentes formes d’interventions humaines. Ces dernières peuvent se traduire par la constitution d’une base d’apprentissage annotée, par la résolution interactive de problèmes (par exemple de détection ou de segmentation) ou encore par la collecte d’informations implicites issues des usages du contenu. Il existe des liens riches et complexes entre supervision humaine d’algorithmes automatiques et adaptation des contributions humaines via la mise en œuvre d’algorithmes automatiques. Ces liens sont à l’origine de questions de recherche modernes : comment motiver des intervenants humains ? Comment concevoir des scénarii interactifs pour lesquels les interactions contribuent à comprendre le contenu manipulé ? Comment vérifier la qualité des traces collectées ? Comment agréger les données d’usage ? Comment fusionner les données d’usage avec celles, plus classiques, issues d’une analyse automatique ? Notre revue de la littérature aborde ces questions et permet de positionner les contributions de cette thèse. Celles-ci s’articulent en deux grandes parties. La première partie de nos travaux revisite la détection de régions importantes ou saillantes au travers de retours implicites d’utilisateurs qui visualisent ou acquièrent des con- tenus visuels. En 2D d’abord, plusieurs interfaces de vidéos interactives (en particulier la vidéo zoomable) sont conçues pour coordonner des analyses basées sur le contenu avec celles basées sur l’usage. On généralise ces résultats en 3D avec l’introduction d’un nouveau détecteur de régions saillantes déduit de la capture simultanée de vidéos de la même performance artistique publique (spectacles de danse, de chant etc.) par de nombreux utilisateurs. La seconde contribution de notre travail vise une compréhension sémantique d’images fixes. Nous exploitons les données récoltées à travers un jeu, Ask’nSeek, que nous avons créé. Les interactions élémentaires (comme les clics) et les données textuelles saisies par les joueurs sont, comme précédemment, rapprochées d’analyses automatiques des images. Nous montrons en particulier l’intérêt d’interactions révélatrices des relations spatiales entre différents objets détectables dans une même scène. Après la détection des objets d’intérêt dans une scène, nous abordons aussi le problème, plus ambitieux, de la segmentation. / This thesis focuses on the problem of understanding visual contents, which can be images, videos or 3D contents. Understanding means that we aim at inferring semantic information about the visual content. The goal of our work is to study methods that combine two types of approaches: 1) automatic content analysis and 2) an analysis of how humans interact with the content (in other words, usage analysis). We start by reviewing the state of the art from both Computer Vision and Multimedia communities. Twenty years ago, the main approach was aiming at a fully automatic understanding of images. This approach today gives way to different forms of human intervention, whether it is through the constitution of annotated datasets, or by solving problems interactively (e.g. detection or segmentation), or by the implicit collection of information gathered from content usages. These different types of human intervention are at the heart of modern research questions: how to motivate human contributors? How to design interactive scenarii that will generate interactions that contribute to content understanding? How to check or ensure the quality of human contributions? How to aggregate human contributions? How to fuse inputs obtained from usage analysis with traditional outputs from content analysis? Our literature review addresses these questions and allows us to position the contributions of this thesis. In our first set of contributions we revisit the detection of important (or salient) regions through implicit feedback from users that either consume or produce visual contents. In 2D, we develop several interfaces of interactive video (e.g. zoomable video) in order to coordinate content analysis and usage analysis. We also generalize these results to 3D by introducing a new detector of salient regions that builds upon simultaneous video recordings of the same public artistic performance (dance show, chant, etc.) by multiple users. The second contribution of our work aims at a semantic understanding of fixed images. With this goal in mind, we use data gathered through a game, Ask’nSeek, that we created. Elementary interactions (such as clicks) together with textual input data from players are, as before, mixed with automatic analysis of images. In particular, we show the usefulness of interactions that help revealing spatial relations between different objects in a scene. After studying the problem of detecting objects on a scene, we also adress the more ambitious problem of segmentation.
25

L'Europe, l'énergie et la libéralisation : genèse et intitutionnalisation d'une politique énergétique européenne (1950-2010) / Europe, energy and liberalisation : genesis and institutionnalisation of the European energy policy (1950-2010)

Aydemir, Melis 06 July 2017 (has links)
Depuis le début de la construction européenne, définir une politique énergétique européenne était un défi important. Malgré les Etats membres qui voulaient préserver l’autonomie de leur secteur énergétique, une vague de restructurations s’est mise en place dans le secteur européen de l’électricité et du gaz par la libéralisation du secteur. Dans ce cadre, le troisième paquet énergie avec la disposition de la séparation de la propriété qui envisageait de démanteler les grandes entreprises énergétiques, a suscité une grande polémique. En relation avec ce débat intensif, la genèse et l’institutionnalisation de la politique énergétique au niveau européen à partir de 1950 jusqu’à 2010 ont été étudiées. Le rôle des idées néolibérales, les pratiques quotidiennes des acteurs (les groupes d’intérêt, les fonctionnaires des institutions européennes, les parlementaires européens..), leurs rapports de force, les luttes de pouvoir dans l’établissement de cette politique ont été analysés. / From the beginning of the European integration, defining a European energy policy was an important challenge. Despite the Member States who intended to preserve the autonomy of their energy sector, a wave of restructuring has taken place in the European electricity and gas sector through the liberalization. In this context, the third energy package with the unbundling issue which envisaged dismantling the big energy companies, caused great deal of controversy and polemics. In connection with this intensive debate, the genesis and institutionalization of the European energy policy from 1950 to 2010 have been studied. The role of neoliberal ideas, stakeholders’ daily practices (interest groups, officials of the European institutions, MEPs...), their power relations, political struggles in the establishment of this policy were analyzed.
26

Anatomy of the SIFT method / L'Anatomie de la méthode SIFT

Rey Otero, Ives 26 September 2015 (has links)
Cette thèse est une analyse approfondie de la méthode SIFT, la méthode de comparaison d'images la plus populaire. En proposant un échantillonnage du scale-space Gaussien, elle est aussi la première méthode à mettre en pratique la théorie scale-space et faire usage de ses propriétés d'invariance aux changements d'échelles.SIFT associe à une image un ensemble de descripteurs invariants aux changements d'échelle, invariants à la rotation et à la translation. Les descripteurs de différentes images peuvent être comparés afin de mettre en correspondance les images. Compte tenu de ses nombreuses applications et ses innombrables variantes, étudier un algorithme publié il y a une décennie pourrait surprendre. Il apparaît néanmoins que peu a été fait pour réellement comprendre cet algorithme majeur et établir de façon rigoureuse dans quelle mesure il peut être amélioré pour des applications de haute précision. Cette étude se découpe en quatre parties. Le calcul exact du scale-space Gaussien, qui est au cœur de la méthode SIFT et de la plupart de ses compétiteurs, est l'objet de la première partie.La deuxième partie est une dissection méticuleuse de la longue chaîne de transformations qui constitue la méthode SIFT. Chaque paramètre y est documenté et son influence analysée. Cette dissection est aussi associé à une publication en ligne de l'algorithme. La description détaillée s'accompagne d'un code en C ainsi que d'une plateforme de démonstration permettant l'analyse par le lecteur de l'influence de chaque paramètre. Dans la troisième partie, nous définissons un cadre d'analyse expérimental exact dans le but de vérifier que la méthode SIFT détecte de façon fiable et stable les extrema du scale-space continue à partir de la grille discrète. En découlent des conclusions pratiques sur le bon échantillonnage du scale-space Gaussien ainsi que sur les stratégies de filtrage de points instables. Ce même cadre expérimental est utilisé dans l'analyse de l'influence de perturbations dans l'image (aliasing, bruit, flou). Cette analyse démontre que la marge d'amélioration est réduite pour la méthode SIFT ainsi que pour toutes ses variantes s'appuyant sur le scale-space pour extraire des points d'intérêt. L'analyse démontre qu'un suréchantillonnage du scale-space permet d'améliorer l'extraction d'extrema et que se restreindre aux échelles élevées améliore la robustesse aux perturbations de l'image.La dernière partie porte sur l'évaluation des performances de détecteurs de points. La métrique de performance la plus généralement utilisée est la répétabilité. Nous démontrons que cette métrique souffre pourtant d'un biais et qu'elle favorise les méthodes générant des détections redondantes. Afin d'éliminer ce biais, nous proposons une variante qui prend en considération la répartition spatiale des détections. A l'aide de cette correction nous réévaluons l'état de l'art et montrons que, une fois la redondance des détections prise en compte, la méthode SIFT est meilleure que nombre de ses variantes les plus modernes. / This dissertation contributes to an in-depth analysis of the SIFT method. SIFT is the most popular and the first efficient image comparison model. SIFT is also the first method to propose a practical scale-space sampling and to put in practice the theoretical scale invariance in scale space. It associates with each image a list of scale invariant (also rotation and translation invariant) features which can be used for comparison with other images. Because after SIFT feature detectors have been used in countless image processing applications, and because of an intimidating number of variants, studying an algorithm that was published more than a decade ago may be surprising. It seems however that not much has been done to really understand this central algorithm and to find out exactly what improvements we can hope for on the matter of reliable image matching methods. Our analysis of the SIFT algorithm is organized as follows. We focus first on the exact computation of the Gaussian scale-space which is at the heart of SIFT as well as most of its competitors. We provide a meticulous dissection of the complex chain of transformations that form the SIFT method and a presentation of every design parameter from the extraction of invariant keypoints to the computation of feature vectors. Using this documented implementation permitting to vary all of its own parameters, we define a rigorous simulation framework to find out if the scale-space features are indeed correctly detected by SIFT, and which sampling parameters influence the stability of extracted keypoints. This analysis is extended to see the influence of other crucial perturbations, such as errors on the amount of blur, aliasing and noise. This analysis demonstrates that, despite the fact that numerous methods claim to outperform the SIFT method, there is in fact limited room for improvement in methods that extract keypoints from a scale-space. The comparison of many detectors proposed in SIFT competitors is the subject of the last part of this thesis. The performance analysis of local feature detectors has been mainly based on the repeatability criterion. We show that this popular criterion is biased toward methods producing redundant (overlapping) descriptors. We therefore propose an amended evaluation metric and use it to revisit a classic benchmark. For the amended repeatability criterion, SIFT is shown to outperform most of its more recent competitors. This last fact corroborates the unabating interest in SIFT and the necessity of a thorough scrutiny of this method.
27

Essai sur la reformulation de la théorie quantitative de la monnaie par Maurice Allais / Essay on Maurice Allais' restatement of the quantity theory of money

Klabi, Ramzi 20 June 2016 (has links)
En 1965, Allais proposa une reformulation tout à fait originale de la théorie quantitative de la monnaie. Il s’agit de la théorie Héréditaire et Relativiste (HR) de la demande de monnaie. Apparue une décennie après la reformulation friedmanienne et la publication du modèle de Cagan (1956) relatif aux hyperinflations, cette théorie n’a pas réussi à se frayer une voie dans le champ de l’analyse monétaire. Plusieurs raisons ont concouru au non succès de cette théorie dont notamment son cadre conceptuel tout à fait étrange par rapport aux approches alors dominantes. L’objet de notre thèse est d’interroger l’apport de la théorie HR en tant que reformulation de la théorie quantitative et ce par rapport à la question de la stabilité de la demande de monnaie.Cette thèse est composée de trois parties. La première partie développe certains préludes nécessaires à l'analyse de la théorie HR (partie I). Les deux dernières parties contiennent les deux principaux résultats de notre travail. Le premier est que la théorie HR constitue une reformulation « ontologique » de la théorie quantitative, qui passe par la considération du temps psychologique-le temps tel que ressenti par l’ensemble des agents économiques (Partie II). Le second résultat est que la théorie HR, en tant que théorie macroéconomique, est grosse d’un changement paradigmatique qui fait écho à celui introduit en physique par la théorie de la relativité : pour certains phénomènes monétaires, la théorie HR substitue à l’explication par des relations causales entre agrégats une explication par la seule déformation psychologique du temps (Partie III). / In 1965, Allais proposed an original restatement of the quantity theory of money. It is the Hereditary and Relativistic (HR) theory of the money demand. Published a decade after Friedman’s restatement and Cagan’s model of hyperinflations, the HR theory remained unknown. Many reasons contributed to the lack of success of this theory, one of which is related to its conceptual framework which is incongruous with the standard approach. The HR theory is based upon the notion of time relativity from a psychological point of view, and the idea that the behavior of economic agents is conditioned by a hereditary effect of past events.Our thesis aims to investigate the contribution of the HR theory as a restatement of the quantity theory with regard to the question of the stability of money demand.The thesis is composed of three parts. The first part contains necessary preludes to the analysis of the HR theory (Part I). The second and the third part contain the two main results of the thesis. The first one is that the HR theory represents an ontological restatement of the quantity theory based on the notion of “psychological time”- time as experienced by the collectivity as a whole (Part II). The second result is that the HR theory, as a macroeconomic theory, contains a paradigmatic shift which echoes the one introduced in physics by the theory of relativity: in the HR theory, an explanation of some monetary phenomena using the psychological distortion of time is substituted to the explanation through causal relations between aggregates (Part III).
28

Non-Negativity, Zero Lower Bound and Affine Interest Rate Models / Positivité, séjours en zéro et modèles affines de taux d'intérêt

Roussellet, Guillaume 15 June 2015 (has links)
Cette thèse présente plusieurs extensions relatives aux modèles affines positifs de taux d'intérêt. Un premier chapitre introduit les concepts reliés aux modélisations employées dans les chapitres suivants. Il détaille la définition de processus dits affines, et la construction de modèles de prix d'actifs obtenus par non-arbitrage. Le chapitre 2 propose une nouvelle méthode d’estimation et de filtrage pour les modèles espace-état linéaire-quadratiques. Le chapitre suivant applique cette méthode d’estimation à la modélisation d’écarts de taux interbancaires de la zone Euro, afin d’en décomposer les fluctuations liées au risque de défaut et de liquidité. Le chapitre 4 développe une nouvelle technique de création de processus affines multivariés à partir leurs contreparties univariées, sans imposer l’indépendance conditionnelle entre leurs composantes. Le dernier chapitre applique cette méthode et dérive un processus affine multivarié dont certaines composantes peuvent rester à zéro pendant des périodes prolongées. Incorporé dans un modèle de taux d’intérêt, ce processus permet de rendre compte efficacement des taux plancher à zéro. / This thesis presents new developments in the literature of non-negative affine interest rate models. The first chapter is devoted to the introduction of the main mathematical tools used in the following chapters. In particular, it presents the so-called affine processes which are extensively employed in no-arbitrage interest rate models. Chapter 2 provides a new filtering and estimation method for linear-quadratic state-space models. This technique is exploited in the 3rd chapter to estimate a positive asset pricing model on the term structure of Euro area interbank spreads. This allows us to decompose the interbank risk into a default risk and a liquidity risk components. Chapter 4 proposes a new recursive method for building general multivariate affine processes from their univariate counterparts. In particular, our method does not impose the conditional independence between the different vector elements. We apply this technique in Chapter 5 to produce multivariate non-negative affine processes where some components can stay at zero for several periods. This process is exploited to build a term structure model consistent with the zero lower bound features.
29

Etude des déterminants anthropo-didactiques de l'usage des jeux à l’école maternelle dans l’enseignement des mathématiques / Study of anthropo-didactic determinants of the use of games in kindergarten in learning mathematics

Ahmad, Faten 06 November 2014 (has links)
L’objectif de la thèse est d’étudier l’usage du jeu dans l’enseignement des mathématiques à l’école maternelle ; il s’agira de :* Décrire le rôle du jeu à visée didactique dans le domaine des mathématiques en grande section d’école maternelle. Permet-il de construire les connaissances ? À quelle condition ? Donne-t-il un sens aux connaissances visées ? Nous décrirons ces situations dans la perspective de la théorie des situations didactiques qui considère la situation comme un système au sein duquel interagissent un certains nombre de sous-système (Brousseau, 1998) : l’élève, le maître, la connaissance ;* Caractériser les types de jeu et définir les fonctions des divers jeux utilisés à l’école maternelle à la fois du point de vue externe – analyse didactique du jeu – et interne (du point de vue des enseignantes et des élèves) et nous examinerons les rapports entre les fonctions déclarées (par les professeurs), les attentes qu’ils entretiennent à l’égard des jeux qu’ils proposent… et les fonctions effectives des jeux que nous dégagerons à partir d’une analyse didactique classique.Tel sera le point central de la thèse : examiner le niveau de recouvrement entre les fonctions déclarées (attendues, espérées…) en terme d’acquisition de connaissances nouvelles, ou de renforcement de connaissances déjà acquises… et les fonctions effectivement assurées par ces jeux ; par exemple, le jeu de l’oie ne permet pas d’enseigner la suite numérique puisque précisément cette connaissance est nécessaire pour pouvoir jouer : ainsi, le jeu de l’oie permet un renforcement, un exercice de connaissances déjà-là et non de créer les conditions de leur acquisition. Il s’agira ensuite d’examiner (ou de discuter) les effets de ces éventuels décalages.La thèse permet de repérer trois styles dominants dans l’usage du jeu : un style didactique motivationnel spontané sous la direction subtile des enseignantes (ouvert, essais et erreurs, stratégies centrées sur l'élève) ; un style directif (les tâches données et les activités sont conduites pas à pas par l'enseignant qui conduit et étaie une démarche tout en attendant un résultat précis) ; un style associatif incitatif (non directif, très centré sur les élèves et leur capacité de travail en groupe, où l’enseignante fait confiance aux élèves et a un rôle essentiel pour faciliter les apprentissages). / Our work confronts the educational aspect proposed by Brougère and didactic aspect defined by Brousseau. Our goal is to study the educational situations and particularly the role of "didactic game" for pre-primary students in learning mathematics; identify the types of play on all games observed and classify them taking into account variables, through a hierarchical cluster analysis or HCA, in three different categories of functions: interest function, function of contextualization, function of confrontation; to look for the link between the functions reported by teachers and effective functions, by our own analysis of games. This analysis allows us to identify three styles dominating the use of game: the spontaneous motivational teaching style under the discreet direction of the teachers (open, trial and error, student-centered strategies); the directive style (the given tasks and the activities are carried out step by step by the teacher who leads and underpins an approach while waiting for an accurate result); the incentive associative style (non-directive, very focused on students and their ability to work in groups, where the teacher relies on students and has a key role to facilitate learning).
30

Understanding some new Basel III implementation issues for Lebanese Commercial Banks / Sur la compréhension des difficultés d'implémentation de Bâles III pour les banques libanaises commerciales

Sayah, Mabelle 12 September 2017 (has links)
L'objectif de cette thèse est de fournir à la banque Audi un outil à jour sur les façons de calculer le capital requis par Bâle pour certains risques financiers présents dans le portefeuille de la banque. La régulation internationale est en développement continu : des nouvelles approches sont proposées afin de couvrir au mieux les risques du marché et du secteur bancaire. Les crises financières récentes étaient à la base de ces réformes. De plus, la Banque Audi opère sur des marchés qui présentent des caractères spécifiques qu'il faut prendre en considération lors du calcul du capital requis. Cette thèse se concentre sur le risque de taux d'intérêt dans le livre de négociation de la banque, le risque de contrepartie et précisément l'ajustement d'évaluation de crédit tout en incorporant l'impact de la corrélation entre la qualité du crédit de la contrepartie et l'exposition prévue envers cette même contrepartie. La première partie de cette thèse traite de la nouvelle méthodologie suggérée par Bâle sur le Trading Book : Fundamental Review of the Trading Book. Le risque de taux d'intérêt est particulièrement analysé en utilisant la méthode standard, Sensitivity Based Approach (SBA), et des méthodes plus 'traditionnelles' de valeur à risque tout en utilisant différents modèles tels que Generalized Auto Regressive Conditional Heteroscedasticity (GARCH), l'Analyse en Composantes Principales (ACP), l'Analyse en composantes indépendantes (ACI) et la version dynamique du modèle de taux de Nelson Siegel (DNS). Une application sur des portefeuilles d'obligations zéro coupons de différentes devises permet d'identifier la diversification des résultats entre les marchés stables européens (comme la France), moins stables (exemple Etats-Unis) et les marchés émergents (tel la Turquie). La deuxième partie est consacrée au risque de Contrepartie. Récemment, un nouveau capital est requis par les normes de Bâle afin de couvrir ce genre de risque. En 2014, la méthode est publiée : Standardized Approach for Counterparty Credit Risk (SA-CCR). On applique cette méthode sur différents types de produits dérivés afin de comparer le capital demandé par cette approche à celui obtenu par les modèles internes. Les modèles internes incorporent les estimations historiques ainsi que les projections futures du marché tout en se basant sur des modèles bien connus tels que Vasicek et GARCH. Plusieurs structures de hedging sont mises en place afin de mesurer l'impact de chacune sur les deux montants de capitaux requis (sous la méthode standard ou l'IMM). L'effet sur des produits en EUR et USD reflété que le modèle interne demande 80% du capital standard quand aucune stratégie de hedging n'est mise en place. Par contre, le hedging semble être beaucoup plus favorisé par le modèle standard que le modèle interne. La troisième partie est toujours sur le risque de Contrepartie, mais se focalise sur l'ajustement d'´évaluation de crédit (CVA). Ce sujet ne faisait pas partie des capitaux requis sauf récemment. A cause de son grand impact durant les récentes crises financières. Dès lors, si une opération avec des produits dérivés ne passe pas par une central clearing houses, un capital pour le CVA est requis. Dans ce travail, on détaille les méthodes acceptées par Bâle afin de calculer ces capitaux et on les compare entre elles. La comparaison se fait en se basant sur des portefeuilles de swap de taux d'intérêts avec, comme contreparties, différents pays d'Investment Grade. Cet article incorpore en plus l'impact de la corrélation entre la détérioration de la qualité de la contrepartie et l'augmentation de l'exposition prévue avec cette contrepartie connue sous le nom de WrongWay Risk : des modèles de correction d'erreurs (ECM) sont mis en place afin de déterminer ce lien. Les résultats permettent de montrer l'importance d'utiliser les CDS des contreparties et non de se limiter à leur note (Investment Grade ou pas)... / This thesis aims at providing Bank Audi with an updated tool to understand and investigate in given risk types encountered in their portfolios and the way Basel suggests computing their capital charges. International regulator is constantly changing and modifying previously used approaches to enhance the reflection of the market and banking sector risks. The recent financial crisis played a major role in these reforms, in addition the situation of Bank Audi and the markets it is operating in, represent certain specifications that should be accounted for. The work handles interest rate risk in the trading book, Counterparty Credit Risk faced with derivatives along a closer look on the Credit Valuation Adjustment topic and the incorporation of Wrong Way Risk. The first part discusses the new Fundamental Review of the Trading Book: focusing on the general interest rate risk factor, the paper compared Basel’s Sensitivity Based Approach (SBA) capital charge to more traditional approaches of VaR using several models such as Generalized Auto Regressive Conditional Heteroscedasticity (GARCH), Principal Components Analysis (PCA), Independent Components Analysis (ICA) and Dynamic Nelson Siegel. Application on portfolios with zero coupon bonds of different sovereigns revealed the divergence in results between stable markets (such as France and Germany), less stable (such as the USA) and emergent markets (such as Turkey). The second part is dedicated to the Counterparty Credit Risk. A new capital charge methodology was proposed by Basel and set as a standard rule in 2014: the Standardized Approach for Counterparty Credit Risk (SA-CCR). Applying this approach on different derivatives portfolios, we compared it to internal models. The internal methodologies incorporated historical estimations and future projections based on Vasicek and GARCH models. Different hedging cases were investigated on EUR and USD portfolios. The impact of each hedging technique and the difference between IMM and the standardized methods were highlighted in this work: without hedging, the internal approach amends 80% of the standardized capital whereas, in general, the hedging is encouraged more under the standardized approach relatively to its capital reduction under the internal model. The third part remains a part of the Counterparty Credit Risk however, the main focus in this work is the Credit Valuation Adjustment. This topic was neglected in terms of capital charge earlier but due to its important impact is now incorporated as a capital charge amended when no central clearing is put in place when dealing with derivatives. We focus on the regulatory approaches of capital computation, comparing both accepted approaches based on portfolios of interest rate swaps held with investment grade sovereigns. An incorporation of the Wrong Way Risk is another addition in this work: using Error Correction Models we were able to reflect the impact of the correlation between the exposure and the credit quality of the investment grade sovereign we are dealing with. Based on such results, a suggestion of a re-calibrated standardized approach is in place to encourage the use of the CDS as an indicator of the credit quality of the counterparty and not its grade (investment or not) as followed by the new Basel regulations

Page generated in 0.048 seconds