• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 191
  • 39
  • 4
  • 1
  • Tagged with
  • 639
  • 217
  • 137
  • 109
  • 76
  • 66
  • 65
  • 58
  • 52
  • 50
  • 47
  • 43
  • 42
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Variations sur le protocole BB84 avec bases de polarisation secrètes

Gazaille, Shany Xiye 02 1900 (has links)
Nous naviguons présentement sur la vague de la deuxième révolution quantique qui nous dirige vers un océan de possibilités. L’approche tant attendue de l’ordinateur quantique affecte notre société, notamment la sécurité mondiale actuelle. C’est la course pour mettre à jour nos réseaux de communication pour maintenir le droit à la vie privée. En cryptographie, bien que le chiffrement de message soit crucial pour des échanges privés, la sécurité générale de toute communication repose majoritairement sur la sécurité d’une clé. C’est pourquoi l’établissement quantique de clé ou QKD (de quantum key distribution en anglais) est une importante tâche cryptographique qui se doit d’être résistante aux adversaires quantiques. Beaucoup d’avancées ont déjà été faites dans le domaine, en l’occurrence l’usage de la fibre optique qui a mené à l’implémentation réelle de protocoles QKD. Par contre, l’obstacle qui continue de limiter tout progrès est la distance. Celle-ci hausse exponentiellement les erreurs introduites dans l’échange dépassant facilement les taux maximum tolérés actuels après quelques centaines de kilomètres seulement. De ce fait, bien que la théorie semble prometteuse, la mise en pratique de protocoles quantiques demeure un défi. Pour viser l’application mondiale, nous nous devons de prioriser l’efficacité. Ce mémoire présente une variation du fameux protocole BB84 pour maximiser la perfor- mance des applications de QKD en augmentant le taux d’erreurs toléré et, en l’occurrence, la distance entre les partis. Un satellite sera introduit comme troisième parti. Il aidera Alice et Bob à partager une chaine secrète. Celle-ci leur permettra de rouler le protocole BB84 sans dévoiler les bases. De plus, deux techniques seront définies, soient le filtrage et la concentration. Ces dernières serviront lors de la communication classique interactive pour diminuer l’erreur entre nos deux individus tout en limitant le gain d’information de leur ad- versaire. Les bénéfices de cette modification sont la possibilité de recycler les bases secrètes du protocole ainsi que la possibilité d’étendre d’avantage la longueur du canal atteignant ainsi l’objectif de pousser les limites pratiques de QKD. / We are currently sailing on the second quantum revolution wave towards an ocean of pos- sibilities. The long awaited quantum computer is near and it will affect global security as we know it. It is a race against the clock to update our entire communication network to maintain the right to personal privacy. An important cryptographic task is key establish- ment. While communicating privately, the entire security lies mainly in the security of the key used. Therefore, it is crucial that future protocols for key establishment be resistant against quantum adversaries. Over the years, there has been great progress in the field like the practical use of optical fibre leading to quantum key distribution (QKD) protocols implemented in real life. Despite this, a specific obstacle still remains. Distance poses a serious problem as it increases ex- ponentially the amount of errors introduced in the protocol, meaning we easily exceed the maximum rate that we can currently tolerate after only a few hundred kilometers. Hence, what we do in theory may sound promising, but the actual application in reality remains a challenge. To aim for global use, we need to prioritize efficiency. This thesis suggests an alternative to the renowned BB84 protocol to help maximize applications of quantum key distribution by increasing the tolerated error rate and thus, the distance between two parties. A satellite will be introduced as a third party to help Alice and Bob share a secret bit sequence. This bit string will allow them to run a BB84 protocol without revealing the bases. Then, two techniques will be defined: filtering and concentration. They will serve in the classical communication phase to help lower the error rate between our two parties while also limiting the amount of information gained by the adversary. Benefits from this approach are the recycling of the secret bases of the protocol as well as the possible extension of the length of the channel, thus achieving the end goal of pushing the limits of practical implementation of QKD.
542

Analyses biomécaniques de l'interaction acrobate-équipement de cirque dans la performance acrobatique en planche coréenne

Cossin, Marion 10 1900 (has links)
La planche coréenne est une discipline de cirque exigeante d’un point de vue technique. Il s’agit d’une longue planche à bascule sur laquelle deux acrobates, placés à chaque extrémité, se catapultent continuellement pour effectuer des sauts acrobatiques. Les acrobates utilisent une technique spécifique pour le décollage et l’atterrissage. La planche coréenne, comme tout équipement de cirque, n’a pas de standard de fabrication et il existe une grande variété de planches. Les acrobates, les entraîneurs et les concepteurs d'équipements bénéficieraient d’avoir plus d'informations sur la biomécanique de la performance et sur la mécanique de la planche, afin d'améliorer le développement des techniques acrobatiques et la conception des planches. L’objectif de la thèse était de mieux comprendre l’interaction entre l’équipement de cirque et la performance acrobatique en planche coréenne. À cet égard, les quatre objectifs spécifiques étaient de : (1) Établir l’influence de la hauteur de saut, du participant, de la planche et de la technique de réception sur les forces d’impact et les taux de chargement; (2) Quantifier l’influence de plusieurs facteurs biomécaniques cinématiques sur la hauteur de saut; (3) Déterminer la différence de contribution musculaire et de durée des phases du mouvement entre acrobates débutants et acrobates élites; et (4) Caractériser mécaniquement différentes planches et mettre en évidence la contribution du renvoi de flexion de la planche sur la hauteur de sauts. Cette thèse présente l’ensemble des travaux effectués pour lier les caractéristiques de la planche au mouvement de l’acrobate. En effet, le mouvement de l’acrobate, sauter à grande hauteur, génère des forces élevées sur la planche lors de la réception, ce qui met en mouvement la planche. L’équipement ensuite permet un transfert de force vers l’acrobate qui s’élance. Finalement, ce dernier doit utiliser une technique optimale avec une synchronisation et une contribution musculaire précis, afin de gagner une hauteur suffisante pour la performance. Nos différentes études ont permis de montrer que le facteur qui influence le plus les forces d’impact et le taux de chargement lors de la réception est la hauteur de saut (40% d’influence relative). La force maximale mesurée est de 13.5 fois le poids corporel de l’acrobate, ce qui peut représenter un risque de blessure. La hauteur de saut est en majorité influencée par la vitesse verticale du centre de masse de l’acrobate-partenaire qui se réceptionne, de la vitesse verticale de la planche et de l’amplitude des hanches lors du décollage. Ces deux derniers paramètres peuvent être contrôlés par les acrobates ou les concepteurs de planche coréenne. Nous démontrons, de plus, que les acrobates débutants sont plus longs dans la préparation au décollage, le décollage et l’atterrissage comparativement aux acrobates experts. Cependant, il n’y avait pas de différence claire entre les débutants et les professionnels quant à l’activité musculaire lors du décollage et atterrissage, ce qui indique que la temporalité est sûrement plus importante que l’activité musculaire. Nous trouvons aussi que le renvoi de flexion (énergie élastique de la planche) est non négligeable (46 % d’influence relative) et contribue donc à la hauteur de saut. Finalement, le paramètre mécanique le plus important pour quantifier et comparer les planches est la raideur. Les quatre planches de l’étude ont une raideur qui varie entre 12.2 kN/m et 19.6 kN/m. Ce paramètre peut probablement guider les futures conceptions de planche. Collectivement, ces quatre études mettent en évidence que la synchronisation temporelle du mouvement des acrobates et du mouvement de la planche est l’élément crucial dans cette discipline. / Korean teeterboard is a technically demanding circus discipline. The apparatus resembles a seesaw, and two acrobats take turns jumping vertically, performing complex acrobatic figures and landing back on the apparatus. Acrobats use a specific technique during take-off and landing. Furthermore, like most circus equipment, there are no standards regarding the design of the teeterboard and there is a wide variety of teeterboards. Acrobats, trainers and equipment’s designers would benefit to know more about the relationship between the biomechanics of the performance and the mechanics of the board. This understanding would help improving acrobatic techniques and optimize the design of teeterboards. The purpose of the thesis was to better understand the interaction between the circus equipment and the acrobats’ performance in Korean teeterboard. To this end, this thesis was divided into four specific goals: (1) Define the influence of the jump height, the teeterboard and the landing technique on impact forces and loading rates; (2) Quantify the influence of various kinematic factors to the jump height; (3) Determine the differences between expert and novice acrobats with respect to muscular contribution and duration of the phases of the movement ; and, (4) mechanically characterize different types of teeterboards and highlight the contribution of the recoil effect to the jump height. This thesis covers the work carried out to link the characteristics of the teeterboard to the movement of the acrobat. The movement of the acrobat, i.e., jumping at high height, generates high forces during landing, which set in motion the board. The equipment then enables the transfer of this force to the other acrobat taking-off. This acrobat should use an optimal technique with a precise timing and muscular contribution, to gain sufficient height for their performance. This body of work demonstrated that the most important factor influencing the impact forces and loading rates was jump height (40% of relative influence). Maximal recorded force was 13.5 times the acrobat’s bodyweight, raising concerns about risk of injury. Jump height was mainly influenced by the vertical velocity of the center of mass of the acrobat landing, the vertical velocity of the teeterboard and the hip range of motion at take-off. The last two parameters can be controlled by acrobats, trainers, or designers of Korean teeterboard. We also found that novice acrobats are longer in the following phases: preparation for take-off, take-off, and landing. However, there was no clear difference in muscular amplitude during take-off and landing between novice and professional acrobats. This indicates that timing may be more important than muscular amplitude. We showed that recoil effect (elastic strain energy of the board) strongly contributed to the jump height (46% of relative influence). Finally, the most important mechanical parameter to quantify and compare teeterboards was the stiffness. The stiffness of the four teeterboards analyzed in this study ranged from 12.2 kN/m to19.6 kN/m. This result can guide future designs of teeterboard. The results from this thesis highlight the fact that temporal synchronization of the movement from both acrobats and the movement of the board is crucial in this discipline.
543

Une énième illusion de progrès : fin de la convergence des ratios du taux d'homicide noir et blanc aux États-Unis, 1979-2018

Chabot, Claire 01 1900 (has links)
Qu’ils en soient les auteurs ou les victimes, les Afro-Américains ont toujours affiché un taux d’homicide largement supérieur à celui des Blancs aux États-Unis. La criminologie a toutefois bien documenté la convergence du taux d’homicide noir vers le taux d’homicide blanc au cours des dernières décennies. À cet effet, il est attesté que le taux d’homicide noir diminue de façon continuelle et de façon plus importante que le taux d’homicide blanc depuis les années 1990. Toutefois, peu de recherches ont examiné la situation depuis 2000. Cette recherche doctorale propose d’analyser la façon dont a évolué l'écart entre le taux d’homicide noir et blanc entre 2000 et 2018 en prenant pour comparaison les deux décennies précédentes. Les résultats permettent de conclure à la fin de la convergence entre taux d’homicide noir et blanc depuis 2000. L’écart entre ces deux taux recommence en effet à se creuser à partir de cette date et se révèle, de surcroît, en moyenne plus élevé que l’écart qui existait entre 1980 et 2000. Ici, une analyse de l'évolution de la part moyenne de foyers noirs et blancs appartenant aux catégories sociales les plus pauvres n’a pas permis d’expliquer de façon certaine cette évolution. Toutefois, l’analyse des écarts de revenus a permis de révéler que les États ayant vu leur ratio d’homicide s’accroître sont souvent les États où les écarts entre la part de foyers pauvres noirs et blancs sont les plus élevés. De fait, l’analyse montre que la situation économique des Noirs s’est dégradée depuis 2000 en comparaison des Blancs, attestant ainsi d’un retour général des inégalités, qu’elles soient criminelles ou économiques, entre Afro-Américains et Blancs depuis 2000. / Whether perpetrators or victims, African Americans have historically had a much higher homicide rate than Whites in the United States. Criminology, however, has well documented the convergence of the black homicide rate to the white homicide rate over the past several decades. To that end, there is evidence that the black homicide rate has been steadily declining by a greater amount than the white homicide rate since the 1990s. However, little research has examined the situation since 2000. This doctoral research proposes to analyze how the gap between the black and white homicide rate has changed between 2000 and 2018 using the previous two decades as a comparison. The results allow us to conclude that the convergence between black and white homicide rates has ended since 2000. The gap between these two rates starts to widen again from this date and is, moreover, on average higher than the gap that existed between 1980 and 2000. Here, an analysis of the evolution of the average share of black and white households belonging to the poorest social categories did not provide a definite explanation for this evolution. However, analysis of income differentials revealed that states with increasing homicide ratios are often the states with the highest differentials in the share of poor black and white households. Indeed, the analysis shows that the economic situation of blacks has worsened since 2000 compared to whites, attesting to a general return of inequality, whether criminal or economic, between African Americans and whites since 2000.
544

Le Canada souffre-t-il de la maladie hollandaise?

Grunitzky, Salomon Franz 20 April 2018 (has links)
L’étude cherche à mettre en évidence un cas de maladie hollandaise au Canada, c'est-à-dire si la relative force de la monnaie canadienne explique les difficultés du secteur manufacturier. Sous cette hypothèse, le taux de change et/ou le prix des produits de base devraient affecter différemment la croissance des régions énergétiques de l’Ouest de celle des régions manufacturières de l’Est. La méthodologie économétrique consiste en un modèle à correction d’erreur servant à décrire la dynamique de court terme et de long terme qui existerait théoriquement entre notre variable dépendante (emploi) et nos variables explicatives (taux de change et prix des produits de base).
545

Prix des ressources et rendement des actifs financiers au Canada

Odia Ndongo, Yves Francis 17 April 2018 (has links)
Le Modèle d'Évaluation des Actifs Financiers (MEDAF ou CAPM) stipule que l'écart de rendement entre un titre risqué et un titre sûr dépend seulement de deux variables : la covariance entre le rendement de ce titre et celui d'un portefeuille de référence (dit "de marché") et l'écart de rendement entre ce portefeuille de marché et un titre sûr. Les exercices de validation empirique effectués sur ce modèle simple ont toutefois amené beaucoup de chercheurs à postuler l'existence de facteurs additionnels pouvant expliquer le rendement des actifs financiers. C'est dans ce contexte que s'inscrit la contribution du présent mémoire. Nous postulons et ensuite vérifions si un facteur relié à l'évolution du prix des ressources (ou produits de base) pourrait contribuer à expliquer le rendement des actifs boursiers des entreprises cotées à la bourse de Toronto. L'analyse empirique du mémoire révèle que ce facteur " produits de base" peut jouer un rôle quantitatif significatif.
546

Stress-Test Exercises and the Pricing of Very Long-Term Bonds / Tests de Résistance et Valorisation des Obligations de Très Long-Terme

Dubecq, Simon 28 January 2013 (has links)
La première partie de cette thèse introduit une nouvelle méthodologie pour la réalisation d’exercices de stress-tests. Notre approche permet de considérer des scénarios de stress beaucoup plus riches qu’en pratique, qui évaluent l’impact d’une modification de la distribution statistique des facteurs influençant les prix d’actifs, pas uniquement les conséquences d’une réalisation particulière de ces facteurs, et prennent en compte la réaction du gestionnaire de portefeuille au choc. La deuxième partie de la thèse est consacrée à la valorisation des obligations à maturité très longues (supérieure à 10 ans). La modélisation de la volatilité des taux de très long terme est un défi, notamment du fait des contraintes posées par l’absence d’opportunités d’arbitrage, et la plupart des modèles de taux d’intérêt en absence d’opportunités d’arbitrage impliquent un taux limite (de maturité infinie) constant. Le deuxième chapitre étudie la compatibilité du facteur "niveau", dont les variations ont un impact uniforme sur l’ensemble des taux modélisés, a fortiori les plus longs, avec l’absence d’opportunités d’arbitrage. Nous introduisons dans le troisième chapitre une nouvelle classe de modèle de taux d’intérêt, sans opportunités d’arbitrage, où le taux limite est stochastique, dont nous présentons les propriétés empiriques sur une base de données de prix d’obligations du Trésor américain. / In the first part of this thesis, we introduce a new methodology for stress-test exercises. Our approach allows to consider richer stress-test exercises, which assess the impact of a modification of the whole distribution of asset prices’ factors, rather than focusing as the common practices on a single realization of these factors, and take into account the potential reaction to the shock of the portfolio manager.
 The second part of the thesis is devoted to the pricing of bonds with very long-term time-to-maturity (more than ten years). Modeling the volatility of very long-term rates is a challenge, due to the constraints put by no-arbitrage assumption. As a consequence, most of the no-arbitrage term structure models assume a constant limiting rate (of infinite maturity). The second chapter investigates the compatibility of the so-called "level" factor, whose variations have a uniform impact on the modeled yield curve, with the no-arbitrage assumptions. We introduce in the third chapter a new class of arbitrage-free term structure factor models, which allows the limiting rate to be stochastic, and present its empirical properties on a dataset of US T-Bonds.
547

Essays on two new central banking debates : central bank financial strength and monetary policy outcome : the instability of the transmission of monetary policy to deposit rates after the global financial crisis / Essais sur deux nouveaux débats du central banking : solidité financière des banques centrales et résultat de la politique monétaire : l’instabilité de la transmission de la politique monétaire aux taux de dépôt après la crise financière

Pinter, Julien 19 December 2017 (has links)
Cette thèse traite de deux nouveaux débats sur le central banking qui ont émergé après la crise financière de 2008: le débat sur les pertes financières aux bilans des banques centrales, et le débat sur le niveau élevé des taux bancaires par rapport aux taux de marché après la crise. Les deux premiers chapitres s’inscrivent dans le premier débat. Le lien entre la solidité financière des banques centrales et l’inflation est étudié empiriquement dans le premier chapitre, en se basant sur un large panel de 82 pays. Théoriquement, ce lien est potentiellement présent lorsque le gouvernement ne soutient pas financièrement la banque centrale et que celle-ci ne peut donc compter que sur elle-même pour améliorer sa situation financière. Les résultats du premier chapitre montrent qu’en pratique tel est effectivement le cas: les détériorations aux bilans des banques centrales s’accompagnent d’une inflation plus forte lorsque la banque centrale n’a pas de soutien fiscal. Les résultats ne montrent pas de lien dans un contexte général, comme la théorie le suggère. Dans le second chapitre, il est analysé et conceptualisé l’argument selon lequel une banque centrale peut mettre fin à un régime de change fixe ou quasi-fixe par peur de futures pertes financières. L’analyse est ensuite appliquée au cas du cours plancher mis en place par la Banque Centrale de Suisse (BNS) entre 2011 et 2015 vis-à-vis de l’euro. Cet argument a été avancé par beaucoup pour expliquer la fin de la politique de cours plancher en Suisse, sans qu’aucune recherche avant celle-ci n’évalue sa pertinence. Les estimations empiriques du Chapitre 2 permettent de montrer que cet argument avait une crédibilité: elles montrent que dans des scénarios crédibles, en cassant le peg avec l’euro 17 mois plus tard, la BNS aurait essuyé une perte considérable, dépassant un seuil perçu comme limite par beaucoup de banquiers centraux. Le dernier chapitre de cette thèse s’intéresse à l’écart entre les taux de dépôts et le taux de marché en zone euro (l’EURIBOR) qui est devenu significativement positif après la crise, conduisant certains à parler de « sur-rémunération » des dépôts. Ce chapitre soutient que la majorité de cet écart ne s’explique non pas par un comportement anormal des dépôts comme certains l’ont avancé, mais au contraire par une perte de pertinence de l’EURIBOR. Construisant une alternative à l’EURIBOR, ce chapitre conclut que le risque bancaire a eu une influence primordiale sur le niveau de rémunération des dépôts dans le monde d’après-crise. / This thesis deals with the new debates on central banking which arose after the 2008 global financial crisis. More particularly, two of such debates are addressed: the debates on the financial losses in central banks’ balance sheets, and the debates on the high level of bank rates compared to market interest rates following the financial crisis. The two first chapters are related to the first debate. The link between central bank financial strength and inflation is empirically examined in a large sample of 82 countries. Theoretically, this link is potentially present when the government does not fiscally support the central bank, so that the central bank can only rely on itself to improve its financial situation. The results show that in practice central bank balance sheet deteriorations indeed lead to higher inflation when fiscal support is absent. The results, based on a particularly meticulous and consistent sample selection, do not show the presence of a link between the two variables in a general context, as the theory suggests. In the second chapter, I analyze and conceptualize the argument according to which a central bank can end a peg exchange rate regime by fear of making significant losses in the future, and I apply this analysis to the Swiss franc peg between 2011 and 2015. This argument was brought forward by many commentators to explain the Swiss move, while no research before this one did study the relevance of this argument. The empirical estimates in Chapter 2 show that this argument indeed had some credibility: under some credible scenarios the Swiss central bank would have incurred significant losses by breaking its peg 17 months later, with losses exceeding a threshold judged as relevant by many central bankers. The last chapter of this thesis focuses on the spread between deposit rates and market interest rates in the Eurozone (more specifically, the EURIBOR), which became significantly positive after the financial crisis, leading some commentators to claim that deposits were over-remunerated. This chapter upholds that the major part of this spread is not due to an « abnormal » behavior of deposits but is rather due to the fact that the EURIBOR has become irrelevant after the global financial crisis. Building an alternative to the EURIBOR, the chapter concludes that banking risks have been having a major influence on the level of deposit remuneration.
548

Participation à l'étude de la qualification juridique des produits dérivés de crédit en droit français

Palseur, Alban 22 December 2011 (has links)
Depuis la succession des récentes crises financières, les « dérivés de crédit » connaissent une notoriété médiatique très intense qui dépasse la seule sphère des spécialistes. Créés au début des années 1990, ils sont des instruments financiers de transfert du risque de crédit. Ils autorisent tant la protection que la spéculation. Ils sont juridiquement documentés par des conventions-Cadres proposées par l’International Swaps and Derivatives Association (ISDA), et dans une très petite mesure, par la Fédération Bancaire Française en France. Ils regroupent cinq grandes catégories de contrat : « credit default swap » ou « contrat d’échange sur le risque de crédit », « credit linked notes » ou « dérivé de crédit titrisé », « credit spread option » ou « option sur écart de taux », « credit spread forward » ou « dérivé sur écart de taux » et « total rate of return swap » ou « dérivé de transfert total de rendement ». La nature et la diversité des « dérivés de crédit » posent depuis toujours de sérieuses difficultés de qualification dans de nombreux pays. En droit français, si une qualification commune semble émerger, celle d’instrument financier, elle est hélas insuffisante à apporter un régime juridique complet. Un travail complémentaire de qualification est indispensable pour chaque contrat membre des « dérivés de crédit ». / Nowadays, since financial crisis, « credit derivatives » are famous. Born in 1990’s, they transfer the credit risk. They are speculation’s instrument or margin’s instrument. International Swaps and Derivatives Association (ISDA), and the Fédération Bancaire Française (in France), point to pattern juridical agreement. Credit derivatives include five big sort of agreement : « credit default swap » (« contrat d’échange sur le risque de crédit »), « credit linked notes » (« dérivé de crédit titrisé »), « credit spread option » (« option sur écart de taux »), « credit spread forward » (« dérivé sur écart de taux ») and « total rate of return swap » (« dérivé de transfert total de rendement »). Their variety and essence ask difficult question of juridical appreciation in many countries. In French law, credit derivatives are « instrument financier ». But this juridical appreciation is incomplete. Every sort of agreement must being individually studies.
549

Allocation dynamique de portefeuille avec profil de gain asymétrique : risk management, incitations financières et benchmarking / Dynamic asset allocation with asymmetric payoffs : risk management, financial incentives, and benchmarking

Tergny, Guillaume 31 May 2011 (has links)
Les gérants de portefeuille pour compte de tiers sont souvent jugés par leur performance relative à celle d'un portefeuille benchmark. A ce titre, ils sont amenés très fréquemment à utiliser des modèles internes de "risk management" pour contrôler le risque de sous-performer le benchmark. Par ailleurs, ils sont de plus en plus nombreux à adopter une politique de rémunération incitative, en percevant une commission de sur-performance par rapport au benchmark. En effet, cette composante variable de leur rémunération leur permet d'augmenter leur revenu en cas de sur-performance sans contrepartie en cas de sous-performance. Or de telles pratiques ont fait récemment l'objet de nombreuses polémiques : la période récente de crise financière mondiale a fait apparaître certaines carences de plusieurs acteurs financiers en terme de contrôle de risque ainsi que des niveaux de prise de risque et de rémunération jugés excessifs. Cependant, l'étude des implications de ces pratiques reste un thème encore relativement peu exploré dans le cadre de la théorie classique des choix dynamiques de portefeuille en temps continu. Cette thèse analyse, dans ce cadre théorique, les implications de ces pratiques de "benchmarking" sur le comportement d'investissement de l'asset manager. La première partie étudie les propriétés de la stratégie dynamique optimale pour l'asset manager concerné par l'écart entre la rentabilité de son portefeuille et celle d'un benchmark fixe ou stochastique (sur ou sous-performance). Nous considérons plusieurs types d'asset managers, caractérisés par différentes fonctions d'utilité et qui sont soumis à différentes contraintes de risque de sous-performance. Nous montrons en particulier quel est le lien entre les problèmes d'investissement avec prise en compte de l'aversion à la sous-performance et avec contrainte explicite de "risk management". Dans la seconde partie, on s'intéresse à l'asset manager bénéficiant d'une rémunération incitative (frais de gestion variables, bonus de sur-performance ou commission sur encours additionnelle). On étudie, selon la forme de ses incitations financières et son degré d'aversion à la sous-performance, comment sa stratégie d'investissement s'écarte de celle de l'investisseur (ou celle de l'asset manager sans rémunération incitative). Nous montrons que le changement de comportement de l'asset manager peut se traduire soit par une réduction du risque pris par rapport à la stratégie sans incitation financière soit au contraire par une augmentation de celui-ci. Finalement, nous montrons en quoi la présence de contraintes de risque de sous-performance, imposées au gérant ou traduisant son aversion à la sous-performance, peut être bénéfique à l'investisseur donnant mandat de gestion financière. / It is common practice to judge third-party asset managers by looking at their financial performance relative to a benchmark portfolio. For this reason, they often choose to rely on internal risk-management models to control the downside risk of their portfolio relative to the benchmark. Moreover, an increasing number are adopting an incentive-based scheme, by charging an over-performance commission relative to the benchmark. Indeed, including this variable component in their global remuneration allows them to increase their revenue in case of over-performance without any penalty in the event of underperforming the benchmark. However, such practices have recently been at the heart of several polemics: the recent global financial crisis has uncovered some shortcomings in terms of internal risk control as well as excessive risk-taking and compensation levels of several financial players. Nevertheless, it appears that analyzing the impact of these practices remains a relatively new issue in continuous time-dynamic asset allocation theory. This thesis analyses in this theoretical framework the implications of these "benchmarking" practices on the asset manager's investment behavior. The first part examines the properties of the optimal dynamic strategy for the asset manager who is concerned by the difference of return between their portfolio and a fix or stochastic benchmark (over- or under-performance). Several asset manager types are considered, defined by different utility functions and different downside-risk constraints. In particular, the link between investment problems with aversion to under-performance and risk management constraints is shown. In the second part, the case of the asset manager who benefits from an incentive compensation scheme (variable asset management fees, over-performance bonuses or additional commission on asset under management), is investigated. We study how, depending on the choice of financial inventive structure and loss aversion level, the asset manager's strategy differs from that of the investor (or the strategy of the asset manager receiving no incentive remuneration). This study shows that the change in investment behavior of the asset manager can lead to both a reduction in the risk taken relative to the strategy without financial incentives or conversely an increase thereof. Finally we show that the existence of downside risk constraints, imposed on the asset manager or corresponding to their aversion for under-performance, can be beneficial to the investor mandating financial management.
550

Détermination par réaction de transfert de largeurs alpha dans le fluor 19. Applications à l'astrophysique

de Oliveira Santos, F. 14 April 1995 (has links) (PDF)
La nucléosynthèse du fluor n'est pas encore clairement expliquée. Plusieurs scénarios prédisent que la réaction de capture alpha radiative sur l'azote 15 est la principale réaction de production de fluor. Dans l'expression du taux de cette réaction un paramètre essentiel est manquant, la largeur partielle alpha de la résonance sur le niveau d'énergie E = 4,377 MeV du fluor 19. Une mesure directe est exclue du fait de la très faible valeur attendue de la section efficace. Nous avons déterminé cette largeur alpha par le biais d'une réaction de transfert et une analyse en FR-DWBA (Finite Range Distorted Wave Born Approximation) dans un modèle simplifié de cluster alpha. Cette expérience a été effectuée avec un faisceau de lithium 7 accéléré à 28 MeV sur une cible gazeuse d'azote 15. Les 16 premiers niveaux du fluor ont été étudiés. Les facteurs spectroscopiques ont été extraits pour la majorité de ces niveaux. Les largeurs alpha des niveaux au-dessus du seuil ont été déterminées. Plusieurs largeurs alpha ont été comparées avec des valeurs publiées de mesures directes et l'écart reste dans la plage d'incertitude que nous avons estimée (facteur 2). La largeur alpha du niveau d'énergie E = 4,377 MeV a été déterminée, sa valeur est environ 60 fois plus faible que la valeur utilisée jusqu'à ce jour. L'influence de ce nouveau taux est observée principalement dans les étoiles dites AGB (Asymptotic Giant Branch) lors de phénomènes de pulsations thermiques. Dans ce modèle l'impact de nos mesures est sensible.

Page generated in 0.0262 seconds