• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 84
  • 12
  • 1
  • Tagged with
  • 304
  • 81
  • 71
  • 38
  • 35
  • 31
  • 29
  • 28
  • 27
  • 25
  • 25
  • 24
  • 23
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Les effets de la diversification sur le risque de change non couvert par les marchés financiers : estimation de la rentabilité du portefeuille dans un système d'informatio optimal / The effects of diversification on the currency risk is not covered by the financial markets : estimate of the profitability of the portfolio information system optimal

Boukrami, Othmane 09 June 2011 (has links)
Dans les conditions actuelles du marché, les entreprises dans les pays émergeants ont le choix entre une dette à court terme en monnaie locale et un financement à long terme en devise forte provenant de sources internationales pour financer leurs investissements à long terme. Ceci crée un gap de taux ou de change. Cette thèse se situe dans la continuité des travaux de recherche qui ont déjà étudié la question de la diversification des risques de change dans les marchés financiers matures. A la différence des approches existantes, cette recherche se concentre sur les monnaies des pays émergeants pour lesquels il n’existe pas ou peu d’instruments de couverture du risque de change et de taux. Le modèle proposé repose sur une conception fondamentalement différente des modèles de risque existants, cherchant à atténuer les risques internes grâce à la diversification du portefeuille, plutôt que par l’adéquation entre l'offre et la demande. Ceci en étudiant à la fois les corrélations entre les monnaies des pays des marchés émergeants constituées dans un portefeuille composé de monnaies des pays africains, asiatiques, sud-américains et d’Europe de l’Est ainsi que l’effet de la diversification sur la réduction du risque de marché. Le choix des monnaies n’a pas une incidence significative sur les résultats du moment que les limites régionales proposées sont respectées. L’objectif principal de cette thèse est de contribuer à la spécification et à l’identification d’un modèle de diversification des risques tout en démontrant que la constitution d’un portefeuille diversifié et non couvert des produits dérivés de change sur les monnaies des marchés émergents est une activité lucrative à long terme. En s’appuyant sur un Système d’Information performant, le model proposé tente de démontrer l’effet qu’auraient de tels produits de couverture sur la réduction du risque de crédit de l’emprunteur et par conséquent celui des bailleurs de fonds. Afin d’atteindre cet objectif, les différents risques liés à ces activités ont été définis tout en choisissant les méthodes pour une gestion efficace de ces risques ainsi que la modélisation d’expositions hypothétiques créées par cette activité. L’impact de la réduction de l’exposition au risque de marché par l’usage des produits de couverture du risque de change et de taux, sur le risque de crédit des entreprises dans les pays émergeants a aussi été modélisé. Les résultats de la simulation proposée montrent qu’une gestion optimale des risques de changes et de taux générés, à travers l’offre de couvertures sur les monnaies des pays émergeants, peut être une activité lucrative pour les banques car l’atténuation des risques peut se faire en diversifiant efficacement le portefeuille. / In current market conditions, companies in emerging markets have the choice between a short-term debt in local currency and a long-term hard currency financing from international sources to finance their long-term investments. This practice would create either an interest rate gap or a currency gap. As an extent of previous researches and studies covering the question of currency risks diversification in mature financial markets, this thesis is quite distinctive from the existing literature as it focuses on emerging market currencies for which there are little or no hedging options of currency and interest rate risks. The proposed model is based on a fundamentally different approach from existing risk models, seeking to mitigate risks internally through portfolio diversification, rather than by matching supply and demand. This, by analyzing both correlations between emerging market currencies in a portfolio composed of African, Asian, South American and Eastern Europe currencies and the effect of diversification on market risk reduction. The main objective of this thesis is to contribute to the specification and the identification of a risk diversification model while demonstrating that the establishment of a diversified portfolio of emerging market currencies not covered by the commercial banks is a lucrative business over the long-term. With an efficient information system, the proposed model attempts to demonstrate the effect that such hedging products would have on reducing the credit risk of borrowers and hence the lenders. To achieve this aim, the different risks associated with these activities have been identified while choosing the methods for their effective management as well as the modeling of hypothetical exposures created by this activity. The impact of reducing market risk exposure through the usage of interest rate and currency hedging products on the credit risk rating of companies in emerging countries has also been modeled. The current research claims that the choice of currencies does not significantly impact the results as long as the proposed regional limits are respected. The simulation’ results show that managing a diversified currency portfolio under an optimal risk management guidelines can be a lucrative business for banks as the risk mitigation can be effectively done through portfolio diversification.
292

Le risque de liquidité dans le système bancaire / Liquidity risk in the banking system

Costisor, Mihaela 02 April 2010 (has links)
Cette thèse étudie les différentes facettes du risque de liquidité et analyse le rôle essentiel qu'elles jouent dans la stabilité systémique.Dans la partie théorique de la thèse, nous traitons du risque de liquidité au travers des ruées bancaires. Progressivement, nous introduisons le marché interbancaire en tant que mécanisme d'assurance de liquidité entre les banques. Cependant, lorsqu'il y a une pénurie globale de liquidité, ce marché a tendance à favoriser la propagation d'une crise de liquidité de banque à banque, ce qui peut aboutir au risque systémique. Nous étudions de manière approfondie la littérature sur la contagion par les liens interbancaires et au travers des prix des actifs. / This thesis examines the different facets of the liquidity risk and aims to analyse their essential role in the stability of the financial system. In the theoretical part of the thesis, we treat liquidity risk through bank runs. Gradually, we introduce the interbank market as a liquidity insurance mechanism between banks. However, when there is an overall shortage of liquidity, this market tends to encourage the spread of liquidity crises from bank to bank which can lead to a systemic financial crisis. We study the literature on risk contagion by interbank links and through asset price effects. The applied part of the thesis aims to test the validity of hypotheses and insights presented in the theoretical framework. The goal is to betterunderstand the mechanism of liquidity risk and the forces of interaction between balance sheet effects that can lead to the transformation of liquidity risk into systemic risk caused by counterparty risk or the revaluation of tradable assets at market prices. In the first numerical application, we propose to evaluate the risk of contagion by interbank linkages in a context where banks borrow on the interbank market and/or at the central bank if necessary. The second simulation is dedicated to contagion through asset price effects, considering that the banks must sell assets on the market to meet their liquidity shortfall. If mark-to-market accounting is applied, the effects of the douwnturn in prices appear immediately and cause a spontaneous reaction from stakeholders.
293

Gamma-ray flux variation studies from the blazar B2 1215+30 with the Fermi-LAT and the Crab Nebula with the H.E.S.S. experiment / Étude de la variabilité temporelle de l'émission gamma du blazar B2 1215 + 30 avec Fermi-LAT et de la Nébuleuse du Crabe avec le réseau de télescopes H.E.S.S.

Zefi, Floriana 18 October 2017 (has links)
Les expériences actuelles en astronomie gamma sont le satellite Fermi-LAT et les expériences au sol tel que H.E.S.S., VERITAS et MAGIC. La surveillance des sources d’énergie très élevées indique une physique diversifiée. Afin d’étudier la forme la plus énergétique de radiation et les phénomènes les plus violents qui se déroulent dans l’Univers, l’analyse des sources individuelles est importante. Les BL Lac, un type de galaxie active, constituent la classe de source extragalactique la plus abondante détecté dans les énergies du GeV au TeV, tandis que le nébuleuses de vent de Pulsar sont la classe la plus peuplée dans le plan galactique. Ces deux types  de sources ont des émissions variables de rayons gamma.Dans cette thèse, la variabilité de l'objet BL Lac B2 1215 + 30 est étudiée avec les données du satellite Fermi-LAT. Une grande variation de flux, détectée par Fermi-LAT en février 2014, est simultanée avec un éruption très lumineux observé au TeV par l'expérience VERITAS. En collaboration avec la collaboration VERITAS, la variabilité du flux de rayons gamma a été utilisée pour établir des contraintes sur la taille de la région d'émission et sur le facteur Doppler. La variabilité à long terme, en utilisant près de neuf ans de données de Fermi-LAT de 100 MeV jusqu'à 500 GeV, a permis de détecter plusieurs flares. L'étude de la variabilité du flux indique un comportement quasi périodique avec une période de jours.Ensuite, la variabilité du flux de l’un des objets les plus étudié, la Nébuleuse du Crabe, au TeV est étudiée avec dix ans d'observation de l'expérience H.E.S.S. Le spectre de la nébuleuse du crabe est mesuré de 280 GeV jusqu'à 62 TeV. Ceci est la première mesure qui s'étend à ces très hautes énergies. Considérée comme une “chandelle standard” en astronomie gamma, la nébuleuse du crabe est une source utilisée pour l'étalonnage et l'étude des instruments. L’observation de variations du flux au GeV par le satellite Fermi-LAT a par conséquent été une découverte inattendue. Ces variations de flux au GeV ont motivé la recherche de variations de flux au TeV en utilisant les données de l'expérience H.E.S.S. La position de la nébuleuse de crabe dans l'hémisphère nord et la localisation de H.E.S.S. en Namibie rendent cette enquête complexe en raison des importantes erreurs systématiques introduites par des conditions d'observation non optimales. Le travail sur la nébuleuse du crabe montre que la prise en compte de la transparence atmosphérique pour l'étude de l'évolution du flux avec le temps résulte en une réduction des effets systématiques. Aucune variation de flux n'a été observée à des énergies supérieures à 1 TeV dans les données de H.E.S.S. I. Une autre variation de flux au GeV signalée par le Fermi-LAT en octobre 2016 par télégramme astronomique, a été étudiée avec H.E.S.S. II. Cette analyse a montré que le GeV éruption a duré pendant un mois, et le flux avec H.E.S.S. a une variance excessive de 15 %. Cela devrait être comparé à l'incertitude systématique de 20 % fréquemment citée par H.E.S.S. / The current state-of-the-art experiments in gamma-ray astronomy are the Fermi-LAT in space and the ground-based H.E.S.S., VERITAS and MAGIC experiments. The monitoring of the very-high-energy gamma-ray emitting sources indicates the diverse physics taking place in astrophysical environments. To study the most energetic form of radiation and the most violent phenomena taking place in the Universe, individual source analyses are important. BL Lac objects, a subcategory of active galaxies, are the most abundant source class detected both in the GeV andTeV energies, while pulsar wind nebulae represent the most numerous identified source class in the galactic plane. Both source classes exhibit gamma-ray flux variations.In this thesis, the gamma-ray variability of the BL Lac object B2 1215+30 is presented with Fermi-LAT data. A bright flare, with 16 times the average quiescent flux, was detected in February 2014.In collaboration with the VERITAS experiment, the gamma-ray variability was investigated over five decades in energy. This work resulted in the detection of a luminous flare, seen simultaneously in GeV and TeV energies by both instruments. These results were used to set constraints on the size of the emission region and on the Doppler factor of the relativistic jet. Additionally, the long-term variability was studied using nine years of Fermi-LAT data. This brought out new flux enhancements, which characterize the long-term lightcurve from 100 MeV up to 500 GeV. Other striking characteristics are a steady linear increase of the yearly average flux, together with a hardening of the spectral index. The investigation of the light curve indicates a hint of quasi-periodic behavior with a period of around 1083±32 days.This work includes spectrum and flux variability studies for the well-studied but ever-surprising Crab Nebula at TeV energies with more than a decade of H.E.S.S. observations. The spectrum measured in this work goes from 280 GeV to 62 TeV, making this the first measurement tha textends to such very-high-energies. Considered as a standard candle for ground-based gamma-ray astronomy, the Crab Nebula is also used for calibration and instrument studies. The detection of GeV flares by the Fermi-LAT were unexpected and motivated the search of flux variations at TeVenergies with the H.E.S.S. experiment. The position of the Crab Nebula in the northern hemisphere makes this investigation challenging due to the large systematic uncertainties introduced by the non-optimal observation conditions. This work showed that the systematic uncertainties can be reduced by taking into account the atmospheric transparency. No flux variations were found at energies above 1 TeV from the H.E.S.S. I data. A flare reported by the Fermi-LAT in October 2016 was also investigated. This analysis showed the GeV flare lasting for one month, while the flux withH.E.S.S. II had an excess variance of 15 %. This should be compared to the commonly quoted 20% systematic uncertainty by H.E.S.S. experiment.
294

Interaction agrégats-surface. Spectrométrie de masse par temps de vol et application analytique à des études sur des médicaments et sur la météorite Paris / Cluster-surface interaction. Time of flight mass spectrometry imaging. Drugs and Paris’s meteorite analysis

Noun, Manale 08 October 2013 (has links)
Le Lebanese Atomic Energy Commission (LAEC) poursuit un programme de développement des techniques analytiques pour compléter l’analyse par faisceau d’ions (IBA). Il a décidé de s’équiper d’un spectromètre de masse couplée à l’imagerie 2D puis récemment 3D avec l’acquisition d’un spectromètre de masse IONTOF V™ équipé de deux colonnes ioniques délivrant des faisceaux d’agrégats de bismuth et d’argon. Dans ce cadre, mon sujet de thèse a porté sur l'optimisation de l’instrument nouvellement acquis pour l’analyse d’échantillons contenant des composés organiques. Les premiers sujets de recherche sont la mise au point du protocole d’analyse quantitative de médicaments en utilisant la technique « cluster-SIMS-imaging » et l’analyse de la météorite Paris pour localiser la matière organique et déterminer sa composition. Dans les deux cas une approche multi-technique a été utilisée : IBA au LAEC, µ-Raman et µ-IR autour des équipements de Soleil et µPIXE réalisée auprès de l’accélérateur AGLAE (Centre de recherche et de restauration des musées de France, C2RMF).L’analyse de médicaments a été initiée au Liban en collaboration avec un fabricant local de produits pharmaceutiques (Mediphar Laboratories) dans le but d’établir de nouveaux procédés de contrôle qualité de produits finis. Mon étude a montré la complexité du dosage de médicament due à la présence de plusieurs molécules actives (Principe Actif, PA) et de substances organiques et minérales inactives (excipients) mélangées dans des conditions secrètes. Les effets de matrice sont dominants et modifient l’émission ionique conduisant à des erreurs systématiques importantes. Cette complexité a été analysée avec l’étude du Fludinium™ possédant deux PAs. Les résultats de cette étude ont permis d’obtenir la première courbe d’étalonnage du rapport des deux PAs et de quantifier ceux-ci dans les conditions du médicament commercial. Le protocole pour effectuer cette courbe d’étalonnage et les contrôles « qualité » ont été déterminés. Ceux-ci incorporeront une analyse en profil pour contrôler l’homogénéité des échantillons et l’obtention d’étalons produits par le fabricant en suivant ses processus de fabrication. En effet, les expériences ont montré que la réalisation du médicament en laboratoire à partir de ses éléments (PAs et excipients) ne donnait pas la même réponse ionique que le médicament commercial. L’analyse de la météorite Paris a été initiée par une collaboration avec une équipe de l’Institut d’Astrophysique Spatial d’Orsay impliquée dans l’exobiologie et la recherche des premières molécules pré-biotiques dans des échantillons extraterrestres. Le but des recherches est de caractériser la matière organique représentant quelques pourcents en poids dans une matrice minérale complexe, sans utiliser des méthodes chimiques pouvant induire une modification de ces molécules. Cette étude a démontré l’intérêt de l’approche multi-technique centrée autour de la spectrométrie de masse couplée à l’imagerie ionique pour déterminer les éléments principaux de la matrice minérale et organique. L’analyse par µPIXE avec une cartographie micrométrique a permis d’attribuer les distributions d’ions moléculaires et agrégats des spectres de masse aux différents composés minéraux. Ces attributions se poursuivent avec la constitution d’une base de données de spectres de référence. La composante organique a été extraite et les premières hypothèses de composition ont été envisagées autour des HAPs (Hydrocarbure Aromatique Polycyclique), MOI (Matière Organique Insoluble) et analogues de carbone amorphe produits par irradiation UV de glaces dont les compositions en gaz représentent différentes hypothèses pour les nuages interstellaires. Les protocoles d’analyses multi-techniques établis (incorporant un suivi de l’échantillon par spectrométrie de masse et imagerie ionique) permettent le démarrage d’analyse d’autres échantillons extra-terrestres collectés sur terre ou dans l’espace. / The Lebanese Atomic Energy Commission (LAEC) is incorporated in a development program of the analytical techniques in order to complete the Ion Beam Analysis (IBA). It was decided to get a mass spectrometer coupled to 2D and recently to 3D imaging, by acquiring an ION TOFVTM system equipped with two ionic columns delivering bismuth and argon cluster beams.In this context, my thesis is focused on the optimization of the instrument, recently purchased, for the analysis of samples containing organic compounds. The first subjects of research are the development of a protocol for quantitative analysis of drugs using the « cluster-SIMS-imaging » technique and the Paris meteorite analysis to determine its composition and to localize the organic matter. In the last case a multi-techniques approach was used : IBA in LAEC, µ-Raman et µ-IR around the Soleil synchrotron equipments and µPIXE carried with the AGLAE accelerator (Centre de recherche et de restauration des musées de France, C2RMF).The drug analysis was initiated in Lebanon in collaboration with a local pharmaceutical manufacturer (Mediphar Laboratories) in order to establish new processes for quality control of the final products. My study showed the complexity of the drug quantification which is due to the presence of several active ingredients (AI) and inactive organic and minerals components (excipients) mixed in secret conditions. Matrix effects are dominant and modify the ionic emission leading to significant systematic errors. This complexity has been analyzed with the study of FludiniumTM with two active ingredients. The results of this study allowed to obtain the first calibration curves of the ratio between the two AIs and to quantify them in the commercial drug. The protocol to perform the calibration curve and the « quality» controls were determined. These incorporate a profile analysis to control the homogeneity of the samples and the obtaining standards produced by the pharmaceutical manufacturer following the same process used for the commercial drug. Indeed, the experiments have shown that the preparation of the drug in the laboratory from its elements (AIs and excipients) doesn’t give the same ionic emission as for the commercial drug.The Paris meteorite analysis was initiated by a collaboration with the Institut d’Astrophysique Spatiale d’Orsay team involved in the exobiology and the research of the first prebiotic molecules in the extraterrestrial samples. The work objective is to characterize the organic matter representing few percents in mass in a complex mineral matrix, without any chemical extraction that can induce a modification of these molecules. This study has demonstrated the interest of the multi-techniques approach centered on the mass spectrometry coupled to the ionic imaging for the determination of the main mineral and organic elements of the matrix. µPIXE analysis coupled to the micrometric mapping permits to attribute the distribution of molecular ions and clusters of the mass spectra with different mineral compounds. These attributions continue with the creation of the data base of standard spectra. The organic component was determined and the first hypotheses were considered concerning PAHs (Polycyclic Aromatic Hydrocarbon), IOM (Insoluble Organic Matter) and analogues of amorphous carbon produced par UV irradiation of ices with a gas composition representing different hypotheses for the interstellar clouds. The establish protocols for multi-techniques (incorporating a follow of the sample by mass spectrometry and ion imaging) permits to start the analysis of other extra terrestrial samples collected on earth or in space.
295

Nouveaux modèles de chemins minimaux pour l'extraction de structures tubulaires et la segmentation d'images / New Minimal Path Model for Tubular Extraction and Image Segmentation

Chen, Da 27 September 2016 (has links)
Dans les domaines de l’imagerie médicale et de la vision par ordinateur, la segmentation joue un rôle crucial dans le but d’extraire les composantes intéressantes d’une image ou d’une séquence d’images. Elle est à l’intermédiaire entre le traitement d’images de bas niveau et les applications cliniques et celles de la vision par ordinateur de haut niveau. Ces applications de haut niveau peuvent inclure le diagnostic, la planification de la thérapie, la détection et la reconnaissance d'objet, etc. Parmi les méthodes de segmentation existantes, les courbes géodésiques minimales possèdent des avantages théoriques et pratiques importants tels que le minimum global de l’énergie géodésique et la méthode bien connue de Fast Marching pour obtenir une solution numérique. Dans cette thèse, nous nous concentrons sur les méthodes géodésiques basées sur l’équation aux dérivées partielles, l’équation Eikonale, afin d’étudier des méthodes précises, rapides et robustes, pour l’extraction de structures tubulaires et la segmentation d’image, en développant diverses métriques géodésiques locales pour des applications cliniques et la segmentation d’images en général. / In the fields of medical imaging and computer vision, segmentation plays a crucial role with the goal of separating the interesting components from one image or a sequence of image frames. It bridges the gaps between the low-level image processing and high level clinical and computer vision applications. Among the existing segmentation methods, minimal geodesics have important theoretical and practical advantages such as the global minimum of the geodesic energy and the well-established fast marching method for numerical solution. In this thesis, we focus on the Eikonal partial differential equation based geodesic methods to investigate accurate, fast and robust tubular structure extraction and image segmentation methods, by developing various local geodesic metrics for types of clinical and segmentation tasks. This thesis aims to applying different geodesic metrics based on the Eikonal framework to solve different image segmentation problems especially for tubularity segmentation and region-based active contours models, by making use of more information from the image feature and prior clinical knowledges. The designed geodesic metrics basically take advantages of the geodesic orientation or anisotropy, the image feature consistency, the geodesic curvature and the geodesic asymmetry property to deal with various difficulties suffered by the classical minimal geodesic models and the active contours models. The main contributions of this thesis lie at the deep study of the various geodesic metrics and their applications in medical imaging and image segmentation. Experiments on medical images and nature images show the effectiveness of the presented contributions.
296

Essay on firm dynamics, competition and International trade

Siwe, Guy Leonel 06 1900 (has links)
Le pouvoir de marché des entreprises a toujours été un sujet d’intérêt tant du point de vue du bien-être économique que de l’allocation des ressources. D’une part, le pouvoir de marché incite les entreprises à moins produire - réduisant le bien-être des consommateurs et d’autre part, la variation de la marge bénéficiaire entre les entreprises induit une friction sur l’allocation des intrants et diminue la productivité agrégée. Suite aux récents débats sur la concentration des parts de marché dans l’économie américaine par une minorité d’entreprises, la question du pouvoir de marché et ses implications ont été largement débattues. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature d’étude du pouvoir de marché de l’entreprise. Le premier chapitre examine les causes de la hausse des marges bénéficiaires aux États-Unis dans un environnement où les entreprises accumulent des actifs intangibles. En effet, au cours des quatre dernières décennies, l’économie américaine a connu une augmentation en moyenne des marges bénéficiaires par les entreprises et une augmen- tation de la concentration des parts de marché. Ces faits ont suscité des inquiétudes quant au pouvoir de marché détenu par certaines entreprises et à l’étendue de la concur- rence. Dans ce chapitre, nous proposons une nouvelle méthode d’agrégation des marges bénéficiaires des entreprises utilisant la distribution des parts de marché. Ensuite, nous documentons trois faits empiriques basés sur la distribution jointe des marges et des parts de marché des entreprises cotées en bourse. Premièrement, la hausse de la marge agrégée a été bien inferieure à celle suggerée par la moyenne. Deuxièmement, les plus grandes entreprises en termes de part de marché, appelées "superstars", ne possèdent pas les marges bénéficiaires les plus élevées et troisièmement, la hausse de la marge agrégée résulte principalement d’une réallocation des parts de marché, associée conjointement à une variation des marges des entreprises. Pour expliquer ces faits, nous proposons un modèle où les entreprises accumulent des actifs intangibles sous forme de base de clients le long de leur cycle de vie, en investissant une valeur fixe de leurs ventes. Une baisse dans la rentabilité des entreprises entrainent une réduction temporaire des marges, afin que ces dernières fixent des prix bas et attirent de nouveaux clients. Une hausse des investissements en base de clientèle profite aux entreprises ayant de fortes opportunités de croissance, leur permettant d’accroitre les parts de vente et d’augmenter davantage leur marge bénéficiaire. Ainsi, l’augmentation des investissements en base de clientèle au cours des quatre dernières décennies explique de moitié l’augmentation globale des marges bénéficiaires aux États-Unis. Le deuxième chapitre examine les implications d’une variation endogène des marges bénéficiaires sur la productivité des usines le long de leur cycle de vie. En effet, la variation des marges bénéficiaires est une potentiel source d’inefficience dans l’allocation des ressources, réduisant la productivité globale. En utilisant l’enquête annuelle sur le secteur manufacturé en Colombie, nous montrons une diminution de la dispersion des marges bénéficiaires avec l’âge, suggérant une convergence des marges bénéficiaires des usines avec l’âge. Nous expliquons et testons cette dynamique à travers d’une théorie d’apprentissage de la demande le long du cycle de vie (à l’exemple de la formation d’une base de la clientèle). Les nouvelles usines obtiennent une productivité et une de demande dès leur entrée et apprenent de leur demande en ajustant leur marge bénéficiaire. Au cours de leur vie, elles accumulent leur demande, ce qui entraine leur croissance et une hausse de leur marge bénéficiaire. La convergence résulte d’une inadéquation entre l’échelle optimale qu’une usine souhaite opérer compte tenu de sa productivité et son échelle de production actuel. Le modèle prédit que la grande dispersion des marges bénéficiaires à l’entrée du marché, entraine une inefficience dans l’allocation des ressources productives et reduit la productivité moyenne à des nouvelles usines. Au fur et à mesure que l’usine prend de l’age, cette friction à l’allocation diminue et contribue à augmenté la productivité moyenne des usines agées. Dans le troisième chapitre, j’étudie les gains de bien-être associés à des nouveaux investissements en infrastructures de transport. Il s’agit d’un travail de recherche con- joint avec Mathilde Lebrand de la Banque mondiale. En effet, de nombreux travaux ne prennent pas en compte la demande de services de transport lors de l’étude des gains associés à de nouveaux projets d’investissements en infrastructures. Nous développons ainsi un modèle Ricardien multi-pays, multisectoriel avec un secteur des transports dont l’équilibre est déterminer de manière endogène et qui présente deux caractéristiques prin- cipales : une diversité de modes de transport et l’absence de concurrence dans le secteur de transport. Les predictions nous montre que une hausse des investissements en in- frastructures réduisent les coûts d’expédition selon trois marges : une réduction du coût marginal des transporteurs, une diminution de la marge de profit des transporteurs et une reallocation des parts de marché vers les modes de transport les plus bénefiques. Ces deux dernières marges sont particulièrement affectées par les préférences des importateurs en matière de choix de mode de transport. / Firms’ market power has always been a topic of interest in terms of welfare and resource allocations analysis. On the one hand, market power reduces the firms’ incentive to produce, reducing consumer welfare. On the other hand, the variation in firms’ markup induces friction to input allocation and lowers aggregate productivity. With the ongoing debate on sales concentration in the US economy by a few firms, there is a lot of question concerning the causes and implications of market power. This thesis, divided into three chapters, contributes to this vast literature of studying the firm’s market power. The first chapter discusses the causes of US markup rise in an environment where firms are building intangibles assets. Indeed, over the last four decades, both the average price markups charged by firms and market shares concentration have increased. This raised concerns about market power and the extent of competition. I develop a new method to aggregate firm-level markups using the sales shares distribution. I then document three facts based on the joint distribution of markups and sales shares among publicly listed firms. First, the rise in the aggregate markup has been much less than that suggested by average markups. Second, the largest sales firms-called "superstar firms" are not at the top of the markups distribution and third, the rise in US markup has been driven by a reallocation of sales shares, jointly associated with a change in firm-level markup. To explain these trends, I develop a model where firms accumulate customers base over their life cycle by investing a fixed share of their sales. Changes in firm profitability lead to a temporary reduction in markups as firms attract new customers. An exogenous increase in the share of investment into the customer base benefits firms with high growth oppor- tunities, allowing them to gain more sales share and increase their markup. Therefore, I find that the rise in the share of investment into customer base over the last four decades explains half of the overall increase in US markup. The second chapter discusses the implications of an endogenous variation in markups to plant productivity over the life cycle. Indeed, markup varies across plants, inducing an inefficiency in allocating resources that lower the aggregate productivity. Using the Annual Columbia Manufacturing survey, I find a decrease in markup dispersion with age, suggesting a convergence of all plant-level markup with age in cross-sectional. I explain and test this dynamic through active learning on demand by plants over the life cycle (e.g. customer base formation). New plants draw a productivity shock and demand shock at entry and actively learn about their demand by adjusting their markup. Over their life, they build their demand and growth in both size and markup. This convergence results from a mismatch between the optimal scale a plant desire to operate and its current scale for a given level of productivity. The model predicts that the high variation in markups at entry induces inefficient input allocation, lowering the average productivity. Along with age, the declines in markups dispersion reduce the allocative inefficiency and foster productivity growth over the life cycle. In the third chapter, I study the welfare gain from new infrastructures investments. It is joint work with Mathilde Lebrand from the World Bank. Indeed, many frameworks don’t take into account the demand for transport services when studying trade policies. We develop a multi-countries and multi-sectoral Ricardian model with an endogenous transport sector. We introduce two main features for endogeneity: the multi-modality and a lack of competition in the transport sector. New infrastructure investments reduce the shipping cost along three margins: a transporters marginal cost reduction, a decline in the transporters profit margins and a reallocation of market shares across shipping modes. The two last margins are driven by the shipping mode preference for a good.
297

Three essays in asset pricing and llimate finance

N'Dri, Kouadio Stéphane 08 1900 (has links)
Cette thèse, divisée en trois chapitres, contribue à la vaste et récente littérature sur l'évaluation des actifs et la finance climatique. Le premier chapitre contribue à la littérature sur la finance climatique tandis que les deux derniers contribuent à la littérature sur l'évalutaion des actifs. Le premier chapitre analyse comment les politiques environnementales visant à réduire les émissions de carbone affectent les prix des actifs et la consommation des ménages. En utilisant de nouvelles données, je propose une mesure des émissions de carbone du point de vue du consommateur et une mesure du risque de croissance de la consommation de carbone. Les mesures sont basées sur des informations sur la consommation totale et l'empreinte carbone de chaque bien et service. Pour analyser les effets des politiques environnementales, un modèle de risques de long terme est développé dans lequel la croissance de la consommation comprend deux composantes: le taux de croissance de la consommation de carbone et le taux de croissance de la part de la consommation de carbone dans la consommation totale. Ce chapitre soutient que le risque de long terme de la croissance de la consommation provient principalement de la croissance de la consommation de carbone découlant des politiques et des actions visant à réduire les émissions, telles que l'Accord de Paris et la Conférence des Nations Unies sur le changement climatique (COP26). Mon modèle aide à détecter le risque de long terme dans la consommation des politiques climatiques tout en résolvant simultanément les énigmes de la prime de risque et de la volatilité, et en expliquant la coupe transversale des actifs. La décomposition de la consommation pourrait conduire à identifier les postes de consommation les plus polluants et à construire une stratégie d'investissement minimisant ou maximisant un critère environnemental de long terme. Le deuxième chapitre (co-écrit avec René Garcia et Caio Almeida) étudie le rôle des facteurs non linéaires indépendants dans la valorisation des actifs. Alors que la majorité des facteurs d'actualisation stochastique (SDF) les plus utilisés qui expliquent la coupe transversale des rendements boursiers sont obtenus à partir des composantes principales linéaires, nous montrons dans ce deuxième chapitre que le fait de permettre la substitution de certaines composantes principales linéaires par des facteurs non linéaires indépendants améliore systématiquement la capacité des facteurs d'actualisation stochastique de valoriser la coupe transversale des actifs. Nous utilisons les 25 portefeuilles de Fama-French, cinquante portefeuilles d'anomalies et cinquante anomalies plus les termes d'interaction basés sur les caractéristiques pour tester l'efficacité des facteurs dynamiques non linéaires. Le SDF estimé à l'aide d'un mélange de facteurs non linéaires et linéaires surpasse ceux qui utilisent uniquement des facteurs linéaires ou des rendements caractéristiques bruts en termes de performance mesurée par le R-carré hors échantillon. De plus, le modèle hybride - utilisant à la fois des composantes principales non linéaires et linéaires - nécessite moins de facteurs de risque pour atteindre les performances hors échantillon les plus élevées par rapport à un modèle utilisant uniquement des facteurs linéaires. Le dernier chapitre étudie la prévisibilité du rendement des anomalies à travers les déciles à l'aide d'un ensemble de quarante-huit variables d'anomalie construites à partir des caractéristiques de titres individuels. Après avoir construit les portefeuilles déciles, cet article étudie leur prévisibilité en utilisant leurs propres informations passées et d'autres prédicteurs bien connus. Les analyses révèlent que les rendements des portefeuilles déciles sont persistants et prévisibles par le ratio de la valeur comptable sur la valeur de marché de l'entreprise, la variance des actions, le rendement des dividendes, le ratio des prix sur les dividendes, le taux de rendement à long terme, le rendement des obligations d'entreprise, le TED Spread et l'indice VIX. De plus, une stratégie consistant à prendre une position longue sur le décile avec le rendement attendu le plus élevé et à prendre une position courte sur le décile avec le rendement attendu le plus bas chaque mois donne des rendements moyens et un rendement par risque bien meilleurs que la stratégie traditionnelle fondée sur les déciles extrêmes pour quarante-cinq des quarante-huit anomalies. / This thesis, divided into three chapters, contributes to the vast and recent literature on asset pricing, and climate finance. The first chapter contributes to the climate finance literature while the last two contribute to the asset pricing literature. The first chapter analyzes how environmental policies that aim to reduce carbon emissions affect asset prices and household consumption. Using novel data, I propose a measure of carbon emissions from a consumer point of view and a carbon consumption growth risk measure. The measures are based on information on aggregate consumption and the carbon footprint for each good and service. To analyze the effects of environmental policies, a long-run risks model is developed where consumption growth is decomposed into two components: the growth rate of carbon consumption and the growth rate of the share of carbon consumption out of total consumption. This paper argues that the long-run risk in consumption growth comes mainly from the carbon consumption growth arising from policies and actions to curb emissions, such as the Paris Agreement and the U.N. Climate Change Conference (COP26). My model helps to detect long-run risk in consumption from climate policies while simultaneously solving the equity premium and volatility puzzles, and explaining the cross-section of assets. The decomposition of consumption could lead to identifying the most polluting consumption items and to constructing an investment strategy that minimizes or maximizes a long-term environmental criterion. The second chapter (co-authored with René Garcia, and Caio Almeida) studies the role of truly independent nonlinear factors in asset pricing. While the most successful stochastic discount factor (SDF) models that price well the cross-section of stock returns are obtained from regularized linear principal components of characteristic-based returns we show that allowing for substitution of some linear principal components by independent nonlinear factors consistently improves the SDF's ability to price this cross-section. We use the Fama-French 25 ME/BM-sorted portfolios, fifty anomaly portfolios, and fifty anomalies plus characteristic-based interaction terms to test the effectiveness of the nonlinear dynamic factors. The SDF estimated using a mixture of nonlinear and linear factors outperforms the ones using solely linear factors or raw characteristic returns in terms of out-of-sample R-squared pricing performance. Moreover, the hybrid model --using both nonlinear and linear principal components-- requires fewer risk factors to achieve the highest out-of-sample performance compared to a model using only linear factors. The last chapter studies anomaly return predictability across deciles using a set of forty-eight anomaly variables built using individual stock characteristics. After constructing the decile portfolios, this paper studies their predictability using their own past information, and other well-known predictors. The analyses reveal that decile portfolio returns are persistent and predictable by book-to-market, stock variance, dividend yield, dividend price ratio, long-term rate of return, corporate bond return, TED Spread, and VIX index. Moreover, a strategy consisting of going long on the decile with the highest expected return and going short on the decile with the lowest expected return each month gives better mean returns and Sharpe ratios than the traditional strategy based on extreme deciles for forty-five out of forty-eight anomalies.
298

Marchés des matières premières agricoles et dynamique des cours : un réexamen par la financiarisation / Agricultural commodities markets and dynamics of prices : a review by financialization

Fam, Papa Gueye 29 November 2016 (has links)
Face à l’instabilité des cours agricoles et à ses conséquences notamment pour les pays en développement, la première partie de cette thèse est consacrée à la présentation des déterminants des cours des matières premières alimentaires, incluant les évolutions récentes en matière d’offre, en tenant compte des conséquences du réchauffement climatique, et de demande, considérant notamment les biocarburants. Il est également question de présenter la financiarisation en cours des économies, et les doutes qui planent sur le rôle que peuvent avoir la spéculation sur les marchés à terme ou encore la mise en œuvre des politiques monétaires, sur les cours au comptant observés sur les marchés physiques des produits agricoles. Suite aux réflexions et éléments de littérature avancés, la seconde partie procède de deux études empiriques. La première est axée sur l’impact de la spéculation sur les marchés financiers à terme sur le cours des sous-jacents (agricoles), alors que la seconde questionne le rôle des marchés monétaires, abordé à travers la capacité du banquier central à stabiliser les taux d’intérêt à court terme. Sur cette base, des conclusions mais également des pistes de recherche sont établies, du fait du prolongement en cours du processus de financiarisation des économies. / Faced with instability of agricultural commodities’ prices and its consequences especially for developing countries, the first part of this thesis is devoted to the presentation of food commodities’ prices, including recent developments with respect to the offering, taking into account the consequences of global warming and demand, as well as the importance of biofuels. It is also question to present the financialization of economies, and the doubts that take over the role of speculation on the futures markets or the implementation of monetary policies, on the spot prices observed on physical agricultural commodities markets. Following the advanced literature reflections and elements, the second part proceeds of two empirical studies, the first one focused on the impact of speculation about the financial futures markets on the underlying asset’s price (agricultural), while the second one examines the role of money markets through the capacities of the central banker to stabilize short-term interest rates. On this basis, conclusions but also future research are established due to the continuation of the economies financialization process.
299

Le renouveau de la marche urbaine : Terrains, acteurs et politiques / The renewal of walking in the urban realm : fields, actors and policies

Lavadinho, Sonia 14 October 2011 (has links)
Cette thèse est consacrée au phénomène du renouveau de la marche en milieu urbain. Depuis une dizaine d’années, un grand nombre de villes en Europe et ailleurs ont entamé une réflexion en profondeur sur la promotion de la marche sur leur territoire. Cette démarche est accompagnée d’opérations de valorisation urbanistique, à différentes échelles, dans une optique de développement intégré de la ville dite multimodale. La marche est ici considérée non pas uniquement pour elle-même, mais en tant que pivot de la multimodalité. Ce thème porteur de nouvelles dynamiques d’aménagement qui transforment le fait urbain est analysé à partir d’un cadre théorique transversal à la croisée de l’urbanisme, la géographie, la sociologie et l’anthropologie urbaines. La méthode employée est fondée sur l’observation participante multi-terrains, prenant comme cas d’étude principaux Lausanne, Genève et Bilbao. A partir des expériences menées par ces villes pour promouvoir la marche à différentes échelles, la thèse construit son plaidoyer autour de l’échelle de l’agglomération, envisagée comme la seule à même de pouvoir véritablement assurer le renouveau de la marche dans le contexte de la ville du XXIe siècle. Ce plaidoyer récapitule les raisons qui font de cette nouvelle échelle de réflexion, a priori inattendue, une étape nécessaire pour garantir l’intégration de la marche au sein de stratégies multimodales complexes au sein de bassins de vie toujours plus étendus. La thèse passe ainsi en revue diverses actions pour redonner à la marche ses lettres de noblesse et lui assurer la place qui lui revient au sein du système de mobilité complexe qui fonde aujourd’hui le monde urbain. / This thesis deals with the renewal of walking in the urban realm since the last decade. A great number of cities in Europe and abroad have been promoting walking since the year 2000 with renewed energy. This trend accompanies operations of urban renewal through different scales within the integrated framework of new urbanism, transit-oriented development, to match the desire of these urban authorities to make their territory a more walkable place in order to become sustainable and liveable cities. These changes are analysed through the intricated prisma of several urban disciplines, namely geography, sociology and anthropology. A multi-site participant observation methodology has been applied to the case studies of Lausanne, Geneva and Bilbao to extract from their experiences the utmost in walking promotion tools and positive visions for a walkable future. The hypothesis of this work is based on the bold assumption that the scale of the agglomeration is the best scale today to think and plan for walking in our urban scattered environments. Walking is therefore to be considered beyond proximity alone. It is better taken when synergies may evolve from intertwining its nearness dynamics with the potential offered by the scale and speed of other modes of transport, namely public transport and shared modes. Within this framework of thought, the thesis reviews facts and figures as well as best practices in order to give walking the place it deserves within our multimodal world.
300

Étude de la polymérisation enzymatique de la malolactonates en présence de lipases / Study of the lipase-catalyzed polymerization of malolactonates

Casajus, Hubert 11 December 2017 (has links)
Les polyesters aliphatiques, comme le poly(acide malique) et ses dérivés, sont une famille de polymères aux propriétés de bio(comptabilité) et de bio(dégradabilité) remarquables, qui en font des candidats de choix pour l'élaboration de systèmes de vectorisation de principes actifs. Généralement, ces polymères sont synthétisés via des réactions de polymérisation utilisant des amorceurs, voir des catalyseurs, organiques, organométalliques ou métalliques. La présence de ces molécules, même à l'état de traces, peut être à l'origine d'une toxicité non souhaitée. Par conséquent, l'utilisation de biocatalyseurs, comme les lipases, se développe pour apporter une solution à cet inconvénient. Cependant, cette voie de synthèse enzymatique fait face à d'autres problèmes, tels qu'une polymérisation moins bien maîtrisée et des polymères de masses molaires faibles. Cette thèse a donc pour objectif de mettre au point une voie de polymérisation du malolactonate de benzyle utilisant la lipase de pancréas de porc (PPL) comme amorceur. Dans un premier temps, nous avons optimisé certains paramètres réactionnels permettant d'obtenir des poly(malate de benzyle) , PMLABe, de masses molaires suffisamment élevées pour que ces polymères puissent être utilisés dans la formulation de vecteurs de principes actifs, grâce à l'utilisation et l'extrapolation d'un plan d'expérience. Nous nous sommes ensuite intéressés à la compréhension du mécanisme réactionnel de la polymérisation enzymatique du malolactonate de benzyle, une β-lactone β-substituée. Les différentes études menées ont permis d'approfondir notre connaissance dans ce domaine. Deux mécanismes ont été proposés et des expériences sont en cours pour confirmer l'un d'entre eux. Finalement, comme l'objectif initial est de proposer une méthode de synthèse de dérivés du PMLA plus biocompatibles conduisant à des polymères sans résidus d'amorceurs chimiques toxiques, nous avons comparé les activités biologiques de nanoparticules préparées à partir de PMLABe synthétisés par voie chimique et par voie enzymatique. Pour cela, nous avons mesuré la captation de ces nanoparticules, encapsulant une sonde de fluorescence, par des cellules hépatiques HepaRG. Puis, nous avons évalué la toxicité aiguë et la toxicité chronique de ces nanoparticules vis-à-vis des cellules HepaRG. Ces études ont permis de mettre en évidence certaines propriétés des nanoparticules ayant une influence sur la survie cellulaire et le métabolisme des cellules HepaRG. De la compréhension théorique aux applications potentielles, cette thèse apporte des connaissances sur la polymérisation enzymatique des lactones substituées, un domaine peu décrit dans la littérature. / Aliphatic polyesters, like poly(malic acid)and its derivatives, are a family of polymers with outstanding properties, such as bio(degradability) and bio(compatibility). Therefore, these polyesters can be considered as excellent candidates for the design of drug carriers. These kinds of polymers are usually synthesized thanks to polymerization reactions using organic, organometallic or metallic initiators or catalysts. The presence of such molecules, even in trace amounts, can cause undesired toxicities. Therefore, the use of biocatalysts, like lipases, is attracting more and more interest and research work to circumvent this problem. However, this enzymatic polymerization method has to face to other issues, such as a lower controlled of the polymerization process and polymers with lower molar masses. Therefore, this PhD research work aimed at setting up the enzymatic polymerization of benzyl malolactonate, using porcine pancreatic lipase (PPL). Firstly, we have optimized some reactional parameters allowing to obtain poly(benzyl malate), PMLABe, with molar masses adapted to their uses for the design of drug carriers, thanks to a Design of Experiments (DoE) and its extrapolation. We were then interested by the comprehension of the enzymatic polymerization mechanism of the benzyl malolactonate. The different studies we carried out allowed us to deepen our knowledges of such enzymatic polymerization. Two non-canonical mechanisms were proposed and further experiments are in progress to confirm the one which is the more probable. Finally, because our initial goal was to propose a more biocompatible polymerization method to obtain PMLABe free of traces of chemical initiator, we compared biologic activities of different nanoparticles prepared from PMLABe synthesized using chemical or enzymatic pathway. For that, we have first measured the uptake of these nanoparticles encapsulating a fluorescent dye, by the hepatic cells HepaRG. Then, we have studied the acute and chronic toxicity of the nanoparticles on the HepaRG cells. Results of these studies have highlighted that certain properties of the nanoparticles and/or of the polymers which constituted them have an influence on the cells viability and on the cells metabolism. From the theoretical mechanism to the probable applications, this thesis brings knowledge about the enzymatic polymerization of substituted lactone, a field poorly described in the literature.

Page generated in 0.0455 seconds