Spelling suggestions: "subject:"coactifs"" "subject:"bioactifs""
291 |
Investigation on the control of supercritical centrifugal compressors supported by active magnetic bearings : Toward a new control strategy? / Recherches sur le contrôle des compresseurs centrifuges supercritiques supportés par des paliers magnétiques actifs : Vers une nouvelle stratégie de contrôle ?Defoy, Benjamin 14 December 2012 (has links)
Le comportement dynamique des turbomachines industrielles doit respecter des critères émis par les normes internationales et les utilisateurs. Les rotors flexibles sont sensibles à la distribution de balourd, et sont soumis aux excitations aérodynamiques de leur environnement. Usuellement, les contrôleurs utilisés peinent à délivrer le niveau d’exigence demandé, par conséquent les propriétés mécaniques des paliers magnétiques sont fortement dépendantes de celles des rotors. L’objectif de ce mémoire est d’analyser le comportement dynamique des compresseurs centrifuges afin de proposer une stratégie de contrôle innovante. D’abord, chaque palier est considéré comme une entité a part entière en couplant ses deux axes d’action. Le comportement dynamique du rotor est exprimé dans le repère polaire. Par ailleurs, la logique floue, qui utilise un modèle de pensée proche du raisonnement humain, applique des actions correctives en fonction du comportement dynamique global du rotor. Ainsi, l’utilisation couplée de ces deux approches créé une synergie permettant d’agir sur le système de manière ciblée. Le contrôleur dissipe l’énergie cinétique du rotor lors du franchissement de vitesses critiques afin d’atténuer la réponse au balourd, ou augmente la raideur du palier lors de vibrations transitoires ou asynchrones afin de réduire la trajectoire du rotor. Le faible amortissement structurel du rotor le rend sensible au phénomène de « spillover » (l’énergie de contrôle affecte les modes de fréquence élevée). Or, la logique floue ne peut pas gérer ce phénomène. Ainsi, un contrôleur PID sous-jacent est utilisé pour maîtriser la stabilité des modes hautes fréquences. Au final, le contrôleur flou polaire permet d’obtenir des marges de performances entre les capacités de cet asservissement et le cahier des charges. Ces marges sont utilisées pour trois objectifs : le respect des spécifications, l’amélioration du comportement subsynchrone, et enfin la simplification et la standardisation du contrôleur sous-jacent nommé ici SPID. Ce contrôleur est tel que ses caractéristiques, dans la plage de fréquence utile, sont indépendantes du rotor pour une application donnée. Enfin, la stratégie développée est évaluée avec des simulations numériques et des essais expérimentaux. D’abord, le modèle numérique est validé, puis le contrôleur est appliqué à un banc d’essais académique. Le comportement est stable et robuste. Il présente des performances supérieures au PID augmenté fourni avec le banc, que ce soit pour la réponse au balourd, ou pour la réponse à des excitations subsynchrones. Finalement, la démarche est appliquée à un compresseur industriel. Les simulations montrent que le comportement est proche de celui exigé pour des machines sur paliers classiques. L’optimisation de l’approche et l’automatisation de la conception pourraient conduire à la standardisation des paliers magnétiques actifs. / The dynamic behaviour of large turbomachinery should satisfy stringent requirements dictated by international standards and final users. Their flexible rotor is sensitive to the unbalance distribution and subjected to particular excitations coming from the industrial process. Usually, the performance margins between the requirements and the classical controller capabilities are small. Consequently, the magnetic bearing characteristics depend on the rotor geometry. Designing such controllers is difficult and time consuming. The objective of this thesis is to investigate the dynamic behaviour of supercritical centrifugal compressors in order to propose a new control strategy. First, each bearing is considered as one entity by coupling its two axes of action. The introduction of polar quantities permits a better observation of the rotor dynamic behaviour. In addition, by using logic close to human being reasoning, the fuzzy logic modulates the action forces as a function of the global dynamic behaviour. The coupling of the two approaches is an efficient way to apply targeted corrective actions. This controller attenuates the unbalance vibration when crossing critical speeds by applying damping forces, or increases the stiffness during transient or asynchronous excitations in order to limit the maximum displacement reached. As their structural damping is low, flexible rotors are very sensitive to spillover effect, which cannot be managed by fuzzy controllers. Consequently, an underlying PID is necessary. This hand-synthesized controller has high frequency characteristics tuned in order to ensure stability and robustness for each rotor. Compared to a classical approach, the polar fuzzy controller enables to increase the performance margins. These margins are used to fulfil three objectives: the achievement of standards requirements, the improvement of the subsynchronous behaviour, and the simplification and the standardization of the PID controller that we called SPID. This SPID is designed for a given application, such that the bearing characteristics on the operating frequency range are always the same. The control strategy is assessed numerically and experimentally. First, the numerical model is validated with experimental tests. Then, the controller developed is applied to an academic test rig. The controller is stable and robust. It exhibits performance superior to the augmented PID supplied with the test rig for both unbalance response and response to subsynchronous excitations. Finally, the control of an industrial compressor is assessed numerically. The results obtained are close to the standards requirements used for classical bearings. The optimization of the approach and the utilization of an automatic tuning algorithm for high frequency characteristics could lead to the standardization of Active Magnetic Bearings.
|
292 |
Essays in quantitative macroeconomics : assessment of structural models with financial and labor market frictions and policy implications / Essais de macroéconomie quantitative : évaluation des modèles structurels avec des frictions financières et du marché du travail et implications aux politiques macroéconomiquesZhutova, Anastasia 21 November 2016 (has links)
Dans cette thèse, je fournis une évaluation empirique des relations entre les principales variables macroéconomiques qui animent le cycle économique. Nous traitons dans chacun des trois chapitres une question empirique en utilisant une approche économétrique bayésienne. Dans le premier chapitre nous étudions la contribution conditionnelle des taux de transition du marché du travail (le taux de retour en emploi et le taux de séparation). La littérature n'est pas parvenue à un consensus sur lequel des taux dominent la dynamique du marché du travail. Alors que Blanchard et Diamond (1990) ont conclu que la baisse de l'emploi en période de récession résulte d'un taux de séparation plus élevé, Shimer (2012), ainsi que Hall (2005), expliquent que les variations du chômage sont principalement expliqués par la variation du taux de retour en emploi. Notre résultat, obtenu grâce à une estimation d'un modèle VAR structurel, montre que l'importance de chaque taux de transition dépend des chocs qui ont frappé le marché du travail et de l'importance des institutions du marché du travail. Dans le second chapitre, nous évaluons l'impact de la réforme du marché du travail réalisée par le Président des États-Unis H. Hoover au début de la Grande Dépression. Nous montrons que ces politiques ont permis à l'économie américaine d'échapper à une grande spirale déflationniste. L'estimation d'un modèle DSGE à l'échelle agrégée, nous permet de comparer deux effets opposés que ces politiques impliquent : effet négatif dû à une baisse de l'emploi et l'effet positif dû aux anticipations inflationnistes qui sont expansionnistes quand l'économie est dans la trappe à liquidité. Les résultats dépendent de la règle de politique monétaire que nous supposons : le principe de Taylor ou le ciblage du niveau de prix. Le troisième chapitre est consacré à la relation entre le taux d'intérêt réel et l'activité économique qui dépend du nombre des participants aux marchés financiers. En utilisant un modèle DSGE et en permettant à la proportion de ces agents d'être stochastiques en suivant une chaîne de Markov, nous identifions les périodes historiques où la proportion était assez faible pour inverser la courbe IS. Pour le cas des États-Unis, nous montrons que cette relation est positive pendant la période de la Grande Inflation et pendant une courte période au début de la Grande Récession. Dans l'union européenne, la proportion de non-participants a été augmentée pendant les années 2009-2015 mais seulement pour amplifier la corrélation négative entre le taux d'intérêt réel et la croissance de la production. / In this thesis I provide an empirical assessment of the relations between the main macroeconomic variables that drive the Business Cycle. We treat the empirical question that arises in each chapter using Bayesian estimation. In the first chapter we investigate conditional contribution of the labor market transition rates (the job finding rate and the separation rate) to unemployment. The literature did not have a consensus on which rate dominates in explaining the labor market dynamics. While Blanchard and Diamond (1990) concluded that the fall in employment during slumps resulted from a higher separation rate, Shimer (2012), as well as Hall (2005), explain unemployment variations by mainly the job finding rate. Our result, obtained through an estimation of a structural VAR model, shows that the importance of the transition rated depends on the shocks that hit an economy and hence the importance of the labor market institutions. In the second chapter, we assess the impact of the labor market reform of the US president H. Hoover implemented at the beginning of the Great Depression. We show that these policies prevented the US economy to enter a big deflationary spiral. Estimating a medium scale DSGE model, we also compare two opposite effects these policies lead to: negative effect through a fall in employment and positive effect though inflationary expectations which are expansionary when monetary policy is irresponsive to the rise in prices. The results depend on the monetary policy rule we assume: The Taylor principle or price level targeting. The third chapter is devoted to the relation between the real interest rate and the economic activity which depends on the number of asset market participants. Using a DSGE model and allowing to the proportion of these agents to be stochastic and to follow a Markov chain, we identify the historical sub-periods where this proportion was low enough to reverse the IS curve. For the US case, we report the studied relation to be positive during the Great Inflation period and for a short period at the edge of the Great Recession. In the EA, the proportion of non-participants has been increased during 2009-2015, but only to amplify the negative correlation between the real interest rate and output growth.
|
293 |
Comprehensive study of the effects of formulation and processing parameters on structural and functional properties of active bio-based packaging films / Contribution à la compréhension de l'influence des paramètres de formulation et de procédé sur la structure et les propriétés fonctionnelle de films actifs à base de bio-polymères / Sveobuhvatno istraživanje utjecaja formulacije i procesnih parametara na strukturna i funkcionalna svojstva aktivnih ambalažnih biomaterijalaKurek, Mia 24 October 2012 (has links)
Cette étude porte sur l’analyse du mécanisme de transfert du carvacrol (molécule antimicrobienne volatile) au travers de films à base de chitosan. La composition, la structure, les paramètres de procédés et de séchage de la couche de chitosan ont été corrélés aux propriétés physico-chimiques et fonctionnelles des films. La compréhension de ces facteurs et de leurs influences est cruciale à l’optimisation de la production de films actifs à base de polyéthylène enduits de chitosan. En effet, composition, microstructure et condition environnementale (température, humidité) conditionnent la rétention puis la libération contrôlée du carvacrol. La présence d’humidité induit absorption, gonflement, et plastification du chitosan, et par conséquent influe sur la structure, ses propriétés thermiques et de surface. L’absorption d’humidité, due au changement de structure, entraîne une forte augmentation de la perméabilité aux gaz et à la vapeur d’eau, et favorise ainsi la libération du carvacrol, nécessaire à une efficacité antimicrobienne rapide. Cette dernière, ainsi que l’impact sensoriel sur l’aliment emballé, sont directement corrélés aux aspects cinétiques et de partage des vapeurs de carvacrol. Ces travaux ont ainsi mis en évidence l’importance le compréhension de mécanismes de transfert dans les emballages à base de bio-polymères sur leur production et application industrielles / The aim of this study is the analysis of structure and transfer mechanisms through chitosan based food packaging materials with incorporated carvacrol as a model of antimicrobial active substance. Integration of composition parameters, structure, processing and drying of chitosan systems is correlated to its physico chemical and functional properties. Understanding and detailed analyses of processing parameters is crucial in production of active chitosan coatings applied on conventional materials such as polyethylene. So, the knowledge of composition and microstructure in association to environmental conditions, control the retention and the release kinetics of carvacrol from chitosan film. Water vapour was crucial parameter that strongly influenced adsorption, swelling and plasticization of chitosan based films, as well as thermal, surface and mechanical properties. By changing the matrix structure, penetrating water molecules decreased gas barrier efficiency and increased release of carvacrol. Furthermore, release of carvacrol in the headspace was correlated to the antimicrobial efficiency and to the organoleptic impact on packed food products. Such investigation highlights the transfer mechanism within bio-based materials, prior to efficiency prediction for their industrial development.In dry conditions, all chitosan films were fairly good gas barriers (about 10 17 g/m∙s∙Pa). Chitosan coated polyethylene films were up to 10000 times less permeable than uncoated PE. Increase in the environmental humidity above 60% and up to 96% (that represents the conditions of a real fresh food packaging system), significantly increased gas permeability of all chitosan films. Mechanical tests confirmed that when relative humidity increased, structural changes were induced. Therefore, extensive water plasticization of chitosan matrix was observed.Diffusion coefficients of carvacrol from chitosan film increased up to 1000 times when humidity increased from 0% to 100%. Water vapour triggers the release of carvacrol in the vapour phase. This indicates the importance of controlling the environmental conditions in the packaging at the time of the application but also during the active film storage.Films with carvacrol concentrations in the vapour phase above 2x10-7 g/mLair were efficient against large spectrum of bacteria, including some Gram-positive bacteria, Gram-negative bacteria and fungi. In some instances the concentration that was required for carvacrol antimicrobial efficiency was not organoleptically acceptable to consumers. / Cilj ovog rada je analiza strukture i mehanizama prijenosa tvari kroz ambalažne materijale za pakiranje hrane na bazi kitozana s inkorporiranim karvakrolom kao modelnom aktivnom antimikrobnom tvari. Integrirani sastavni parametri, struktura, proizvodnja i sušenje kitozanskog sustava korelirani su sa njegovim fizikalno-kemijskim i funkcionalnim svojstvima. Razumijevanje i detaljna analiza procesnih parametara predstavlja ključan korak u proizvodnji aktivnih kitozanskih prevlaka na konvencionalnim materijaima kao što je polietilen. Dakle, poznavanje sastava i mikrostrukture u ovisnosti o okolnim uvjetima, osnovni je preduvjet za kontrolirano zadržavanje i otpuštanje karvakrola iz filmova na bazi kitozana. Vodena para predstavlja ključni parametar koji značajno utječe na adsorpciju, bubrenje i plastifikaciju kitozanskih filmova, kao i na njegova toplinska, površinska, i mehanička svojstva. Penetracijom (prodiranjem) molekula vode dolazi do promjene strukture matriksa, smanjuje se učinkovitost barijernih svojstava prema plinovima i povećava otpuštanje karvakrola. Otpuštanje karvakrola u zračnom prostoru u korelaciji je sa antimikrobnom učinkovitosti i organoleptičkim svojstvima upakiranih prehrambenih proizvoda. Ovo istraživanje prije svega naglašava značaj poznavanja mehanizma prijenosa tvari unutar biomaterijala koji je neophodan za predviđanje učinkovite primjene na industrijskoj razini
|
294 |
Les effets de la diversification sur le risque de change non couvert par les marchés financiers : estimation de la rentabilité du portefeuille dans un système d'informatio optimal / The effects of diversification on the currency risk is not covered by the financial markets : estimate of the profitability of the portfolio information system optimalBoukrami, Othmane 09 June 2011 (has links)
Dans les conditions actuelles du marché, les entreprises dans les pays émergeants ont le choix entre une dette à court terme en monnaie locale et un financement à long terme en devise forte provenant de sources internationales pour financer leurs investissements à long terme. Ceci crée un gap de taux ou de change. Cette thèse se situe dans la continuité des travaux de recherche qui ont déjà étudié la question de la diversification des risques de change dans les marchés financiers matures. A la différence des approches existantes, cette recherche se concentre sur les monnaies des pays émergeants pour lesquels il n’existe pas ou peu d’instruments de couverture du risque de change et de taux. Le modèle proposé repose sur une conception fondamentalement différente des modèles de risque existants, cherchant à atténuer les risques internes grâce à la diversification du portefeuille, plutôt que par l’adéquation entre l'offre et la demande. Ceci en étudiant à la fois les corrélations entre les monnaies des pays des marchés émergeants constituées dans un portefeuille composé de monnaies des pays africains, asiatiques, sud-américains et d’Europe de l’Est ainsi que l’effet de la diversification sur la réduction du risque de marché. Le choix des monnaies n’a pas une incidence significative sur les résultats du moment que les limites régionales proposées sont respectées. L’objectif principal de cette thèse est de contribuer à la spécification et à l’identification d’un modèle de diversification des risques tout en démontrant que la constitution d’un portefeuille diversifié et non couvert des produits dérivés de change sur les monnaies des marchés émergents est une activité lucrative à long terme. En s’appuyant sur un Système d’Information performant, le model proposé tente de démontrer l’effet qu’auraient de tels produits de couverture sur la réduction du risque de crédit de l’emprunteur et par conséquent celui des bailleurs de fonds. Afin d’atteindre cet objectif, les différents risques liés à ces activités ont été définis tout en choisissant les méthodes pour une gestion efficace de ces risques ainsi que la modélisation d’expositions hypothétiques créées par cette activité. L’impact de la réduction de l’exposition au risque de marché par l’usage des produits de couverture du risque de change et de taux, sur le risque de crédit des entreprises dans les pays émergeants a aussi été modélisé. Les résultats de la simulation proposée montrent qu’une gestion optimale des risques de changes et de taux générés, à travers l’offre de couvertures sur les monnaies des pays émergeants, peut être une activité lucrative pour les banques car l’atténuation des risques peut se faire en diversifiant efficacement le portefeuille. / In current market conditions, companies in emerging markets have the choice between a short-term debt in local currency and a long-term hard currency financing from international sources to finance their long-term investments. This practice would create either an interest rate gap or a currency gap. As an extent of previous researches and studies covering the question of currency risks diversification in mature financial markets, this thesis is quite distinctive from the existing literature as it focuses on emerging market currencies for which there are little or no hedging options of currency and interest rate risks. The proposed model is based on a fundamentally different approach from existing risk models, seeking to mitigate risks internally through portfolio diversification, rather than by matching supply and demand. This, by analyzing both correlations between emerging market currencies in a portfolio composed of African, Asian, South American and Eastern Europe currencies and the effect of diversification on market risk reduction. The main objective of this thesis is to contribute to the specification and the identification of a risk diversification model while demonstrating that the establishment of a diversified portfolio of emerging market currencies not covered by the commercial banks is a lucrative business over the long-term. With an efficient information system, the proposed model attempts to demonstrate the effect that such hedging products would have on reducing the credit risk of borrowers and hence the lenders. To achieve this aim, the different risks associated with these activities have been identified while choosing the methods for their effective management as well as the modeling of hypothetical exposures created by this activity. The impact of reducing market risk exposure through the usage of interest rate and currency hedging products on the credit risk rating of companies in emerging countries has also been modeled. The current research claims that the choice of currencies does not significantly impact the results as long as the proposed regional limits are respected. The simulation’ results show that managing a diversified currency portfolio under an optimal risk management guidelines can be a lucrative business for banks as the risk mitigation can be effectively done through portfolio diversification.
|
295 |
Le risque de liquidité dans le système bancaire / Liquidity risk in the banking systemCostisor, Mihaela 02 April 2010 (has links)
Cette thèse étudie les différentes facettes du risque de liquidité et analyse le rôle essentiel qu'elles jouent dans la stabilité systémique.Dans la partie théorique de la thèse, nous traitons du risque de liquidité au travers des ruées bancaires. Progressivement, nous introduisons le marché interbancaire en tant que mécanisme d'assurance de liquidité entre les banques. Cependant, lorsqu'il y a une pénurie globale de liquidité, ce marché a tendance à favoriser la propagation d'une crise de liquidité de banque à banque, ce qui peut aboutir au risque systémique. Nous étudions de manière approfondie la littérature sur la contagion par les liens interbancaires et au travers des prix des actifs. / This thesis examines the different facets of the liquidity risk and aims to analyse their essential role in the stability of the financial system. In the theoretical part of the thesis, we treat liquidity risk through bank runs. Gradually, we introduce the interbank market as a liquidity insurance mechanism between banks. However, when there is an overall shortage of liquidity, this market tends to encourage the spread of liquidity crises from bank to bank which can lead to a systemic financial crisis. We study the literature on risk contagion by interbank links and through asset price effects. The applied part of the thesis aims to test the validity of hypotheses and insights presented in the theoretical framework. The goal is to betterunderstand the mechanism of liquidity risk and the forces of interaction between balance sheet effects that can lead to the transformation of liquidity risk into systemic risk caused by counterparty risk or the revaluation of tradable assets at market prices. In the first numerical application, we propose to evaluate the risk of contagion by interbank linkages in a context where banks borrow on the interbank market and/or at the central bank if necessary. The second simulation is dedicated to contagion through asset price effects, considering that the banks must sell assets on the market to meet their liquidity shortfall. If mark-to-market accounting is applied, the effects of the douwnturn in prices appear immediately and cause a spontaneous reaction from stakeholders.
|
296 |
Gamma-ray flux variation studies from the blazar B2 1215+30 with the Fermi-LAT and the Crab Nebula with the H.E.S.S. experiment / Étude de la variabilité temporelle de l'émission gamma du blazar B2 1215 + 30 avec Fermi-LAT et de la Nébuleuse du Crabe avec le réseau de télescopes H.E.S.S.Zefi, Floriana 18 October 2017 (has links)
Les expériences actuelles en astronomie gamma sont le satellite Fermi-LAT et les expériences au sol tel que H.E.S.S., VERITAS et MAGIC. La surveillance des sources d’énergie très élevées indique une physique diversifiée. Afin d’étudier la forme la plus énergétique de radiation et les phénomènes les plus violents qui se déroulent dans l’Univers, l’analyse des sources individuelles est importante. Les BL Lac, un type de galaxie active, constituent la classe de source extragalactique la plus abondante détecté dans les énergies du GeV au TeV, tandis que le nébuleuses de vent de Pulsar sont la classe la plus peuplée dans le plan galactique. Ces deux types de sources ont des émissions variables de rayons gamma.Dans cette thèse, la variabilité de l'objet BL Lac B2 1215 + 30 est étudiée avec les données du satellite Fermi-LAT. Une grande variation de flux, détectée par Fermi-LAT en février 2014, est simultanée avec un éruption très lumineux observé au TeV par l'expérience VERITAS. En collaboration avec la collaboration VERITAS, la variabilité du flux de rayons gamma a été utilisée pour établir des contraintes sur la taille de la région d'émission et sur le facteur Doppler. La variabilité à long terme, en utilisant près de neuf ans de données de Fermi-LAT de 100 MeV jusqu'à 500 GeV, a permis de détecter plusieurs flares. L'étude de la variabilité du flux indique un comportement quasi périodique avec une période de jours.Ensuite, la variabilité du flux de l’un des objets les plus étudié, la Nébuleuse du Crabe, au TeV est étudiée avec dix ans d'observation de l'expérience H.E.S.S. Le spectre de la nébuleuse du crabe est mesuré de 280 GeV jusqu'à 62 TeV. Ceci est la première mesure qui s'étend à ces très hautes énergies. Considérée comme une “chandelle standard” en astronomie gamma, la nébuleuse du crabe est une source utilisée pour l'étalonnage et l'étude des instruments. L’observation de variations du flux au GeV par le satellite Fermi-LAT a par conséquent été une découverte inattendue. Ces variations de flux au GeV ont motivé la recherche de variations de flux au TeV en utilisant les données de l'expérience H.E.S.S. La position de la nébuleuse de crabe dans l'hémisphère nord et la localisation de H.E.S.S. en Namibie rendent cette enquête complexe en raison des importantes erreurs systématiques introduites par des conditions d'observation non optimales. Le travail sur la nébuleuse du crabe montre que la prise en compte de la transparence atmosphérique pour l'étude de l'évolution du flux avec le temps résulte en une réduction des effets systématiques. Aucune variation de flux n'a été observée à des énergies supérieures à 1 TeV dans les données de H.E.S.S. I. Une autre variation de flux au GeV signalée par le Fermi-LAT en octobre 2016 par télégramme astronomique, a été étudiée avec H.E.S.S. II. Cette analyse a montré que le GeV éruption a duré pendant un mois, et le flux avec H.E.S.S. a une variance excessive de 15 %. Cela devrait être comparé à l'incertitude systématique de 20 % fréquemment citée par H.E.S.S. / The current state-of-the-art experiments in gamma-ray astronomy are the Fermi-LAT in space and the ground-based H.E.S.S., VERITAS and MAGIC experiments. The monitoring of the very-high-energy gamma-ray emitting sources indicates the diverse physics taking place in astrophysical environments. To study the most energetic form of radiation and the most violent phenomena taking place in the Universe, individual source analyses are important. BL Lac objects, a subcategory of active galaxies, are the most abundant source class detected both in the GeV andTeV energies, while pulsar wind nebulae represent the most numerous identified source class in the galactic plane. Both source classes exhibit gamma-ray flux variations.In this thesis, the gamma-ray variability of the BL Lac object B2 1215+30 is presented with Fermi-LAT data. A bright flare, with 16 times the average quiescent flux, was detected in February 2014.In collaboration with the VERITAS experiment, the gamma-ray variability was investigated over five decades in energy. This work resulted in the detection of a luminous flare, seen simultaneously in GeV and TeV energies by both instruments. These results were used to set constraints on the size of the emission region and on the Doppler factor of the relativistic jet. Additionally, the long-term variability was studied using nine years of Fermi-LAT data. This brought out new flux enhancements, which characterize the long-term lightcurve from 100 MeV up to 500 GeV. Other striking characteristics are a steady linear increase of the yearly average flux, together with a hardening of the spectral index. The investigation of the light curve indicates a hint of quasi-periodic behavior with a period of around 1083±32 days.This work includes spectrum and flux variability studies for the well-studied but ever-surprising Crab Nebula at TeV energies with more than a decade of H.E.S.S. observations. The spectrum measured in this work goes from 280 GeV to 62 TeV, making this the first measurement tha textends to such very-high-energies. Considered as a standard candle for ground-based gamma-ray astronomy, the Crab Nebula is also used for calibration and instrument studies. The detection of GeV flares by the Fermi-LAT were unexpected and motivated the search of flux variations at TeVenergies with the H.E.S.S. experiment. The position of the Crab Nebula in the northern hemisphere makes this investigation challenging due to the large systematic uncertainties introduced by the non-optimal observation conditions. This work showed that the systematic uncertainties can be reduced by taking into account the atmospheric transparency. No flux variations were found at energies above 1 TeV from the H.E.S.S. I data. A flare reported by the Fermi-LAT in October 2016 was also investigated. This analysis showed the GeV flare lasting for one month, while the flux withH.E.S.S. II had an excess variance of 15 %. This should be compared to the commonly quoted 20% systematic uncertainty by H.E.S.S. experiment.
|
297 |
Interaction agrégats-surface. Spectrométrie de masse par temps de vol et application analytique à des études sur des médicaments et sur la météorite Paris / Cluster-surface interaction. Time of flight mass spectrometry imaging. Drugs and Paris’s meteorite analysisNoun, Manale 08 October 2013 (has links)
Le Lebanese Atomic Energy Commission (LAEC) poursuit un programme de développement des techniques analytiques pour compléter l’analyse par faisceau d’ions (IBA). Il a décidé de s’équiper d’un spectromètre de masse couplée à l’imagerie 2D puis récemment 3D avec l’acquisition d’un spectromètre de masse IONTOF V™ équipé de deux colonnes ioniques délivrant des faisceaux d’agrégats de bismuth et d’argon. Dans ce cadre, mon sujet de thèse a porté sur l'optimisation de l’instrument nouvellement acquis pour l’analyse d’échantillons contenant des composés organiques. Les premiers sujets de recherche sont la mise au point du protocole d’analyse quantitative de médicaments en utilisant la technique « cluster-SIMS-imaging » et l’analyse de la météorite Paris pour localiser la matière organique et déterminer sa composition. Dans les deux cas une approche multi-technique a été utilisée : IBA au LAEC, µ-Raman et µ-IR autour des équipements de Soleil et µPIXE réalisée auprès de l’accélérateur AGLAE (Centre de recherche et de restauration des musées de France, C2RMF).L’analyse de médicaments a été initiée au Liban en collaboration avec un fabricant local de produits pharmaceutiques (Mediphar Laboratories) dans le but d’établir de nouveaux procédés de contrôle qualité de produits finis. Mon étude a montré la complexité du dosage de médicament due à la présence de plusieurs molécules actives (Principe Actif, PA) et de substances organiques et minérales inactives (excipients) mélangées dans des conditions secrètes. Les effets de matrice sont dominants et modifient l’émission ionique conduisant à des erreurs systématiques importantes. Cette complexité a été analysée avec l’étude du Fludinium™ possédant deux PAs. Les résultats de cette étude ont permis d’obtenir la première courbe d’étalonnage du rapport des deux PAs et de quantifier ceux-ci dans les conditions du médicament commercial. Le protocole pour effectuer cette courbe d’étalonnage et les contrôles « qualité » ont été déterminés. Ceux-ci incorporeront une analyse en profil pour contrôler l’homogénéité des échantillons et l’obtention d’étalons produits par le fabricant en suivant ses processus de fabrication. En effet, les expériences ont montré que la réalisation du médicament en laboratoire à partir de ses éléments (PAs et excipients) ne donnait pas la même réponse ionique que le médicament commercial. L’analyse de la météorite Paris a été initiée par une collaboration avec une équipe de l’Institut d’Astrophysique Spatial d’Orsay impliquée dans l’exobiologie et la recherche des premières molécules pré-biotiques dans des échantillons extraterrestres. Le but des recherches est de caractériser la matière organique représentant quelques pourcents en poids dans une matrice minérale complexe, sans utiliser des méthodes chimiques pouvant induire une modification de ces molécules. Cette étude a démontré l’intérêt de l’approche multi-technique centrée autour de la spectrométrie de masse couplée à l’imagerie ionique pour déterminer les éléments principaux de la matrice minérale et organique. L’analyse par µPIXE avec une cartographie micrométrique a permis d’attribuer les distributions d’ions moléculaires et agrégats des spectres de masse aux différents composés minéraux. Ces attributions se poursuivent avec la constitution d’une base de données de spectres de référence. La composante organique a été extraite et les premières hypothèses de composition ont été envisagées autour des HAPs (Hydrocarbure Aromatique Polycyclique), MOI (Matière Organique Insoluble) et analogues de carbone amorphe produits par irradiation UV de glaces dont les compositions en gaz représentent différentes hypothèses pour les nuages interstellaires. Les protocoles d’analyses multi-techniques établis (incorporant un suivi de l’échantillon par spectrométrie de masse et imagerie ionique) permettent le démarrage d’analyse d’autres échantillons extra-terrestres collectés sur terre ou dans l’espace. / The Lebanese Atomic Energy Commission (LAEC) is incorporated in a development program of the analytical techniques in order to complete the Ion Beam Analysis (IBA). It was decided to get a mass spectrometer coupled to 2D and recently to 3D imaging, by acquiring an ION TOFVTM system equipped with two ionic columns delivering bismuth and argon cluster beams.In this context, my thesis is focused on the optimization of the instrument, recently purchased, for the analysis of samples containing organic compounds. The first subjects of research are the development of a protocol for quantitative analysis of drugs using the « cluster-SIMS-imaging » technique and the Paris meteorite analysis to determine its composition and to localize the organic matter. In the last case a multi-techniques approach was used : IBA in LAEC, µ-Raman et µ-IR around the Soleil synchrotron equipments and µPIXE carried with the AGLAE accelerator (Centre de recherche et de restauration des musées de France, C2RMF).The drug analysis was initiated in Lebanon in collaboration with a local pharmaceutical manufacturer (Mediphar Laboratories) in order to establish new processes for quality control of the final products. My study showed the complexity of the drug quantification which is due to the presence of several active ingredients (AI) and inactive organic and minerals components (excipients) mixed in secret conditions. Matrix effects are dominant and modify the ionic emission leading to significant systematic errors. This complexity has been analyzed with the study of FludiniumTM with two active ingredients. The results of this study allowed to obtain the first calibration curves of the ratio between the two AIs and to quantify them in the commercial drug. The protocol to perform the calibration curve and the « quality» controls were determined. These incorporate a profile analysis to control the homogeneity of the samples and the obtaining standards produced by the pharmaceutical manufacturer following the same process used for the commercial drug. Indeed, the experiments have shown that the preparation of the drug in the laboratory from its elements (AIs and excipients) doesn’t give the same ionic emission as for the commercial drug.The Paris meteorite analysis was initiated by a collaboration with the Institut d’Astrophysique Spatiale d’Orsay team involved in the exobiology and the research of the first prebiotic molecules in the extraterrestrial samples. The work objective is to characterize the organic matter representing few percents in mass in a complex mineral matrix, without any chemical extraction that can induce a modification of these molecules. This study has demonstrated the interest of the multi-techniques approach centered on the mass spectrometry coupled to the ionic imaging for the determination of the main mineral and organic elements of the matrix. µPIXE analysis coupled to the micrometric mapping permits to attribute the distribution of molecular ions and clusters of the mass spectra with different mineral compounds. These attributions continue with the creation of the data base of standard spectra. The organic component was determined and the first hypotheses were considered concerning PAHs (Polycyclic Aromatic Hydrocarbon), IOM (Insoluble Organic Matter) and analogues of amorphous carbon produced par UV irradiation of ices with a gas composition representing different hypotheses for the interstellar clouds. The establish protocols for multi-techniques (incorporating a follow of the sample by mass spectrometry and ion imaging) permits to start the analysis of other extra terrestrial samples collected on earth or in space.
|
298 |
Nouveaux modèles de chemins minimaux pour l'extraction de structures tubulaires et la segmentation d'images / New Minimal Path Model for Tubular Extraction and Image SegmentationChen, Da 27 September 2016 (has links)
Dans les domaines de l’imagerie médicale et de la vision par ordinateur, la segmentation joue un rôle crucial dans le but d’extraire les composantes intéressantes d’une image ou d’une séquence d’images. Elle est à l’intermédiaire entre le traitement d’images de bas niveau et les applications cliniques et celles de la vision par ordinateur de haut niveau. Ces applications de haut niveau peuvent inclure le diagnostic, la planification de la thérapie, la détection et la reconnaissance d'objet, etc. Parmi les méthodes de segmentation existantes, les courbes géodésiques minimales possèdent des avantages théoriques et pratiques importants tels que le minimum global de l’énergie géodésique et la méthode bien connue de Fast Marching pour obtenir une solution numérique. Dans cette thèse, nous nous concentrons sur les méthodes géodésiques basées sur l’équation aux dérivées partielles, l’équation Eikonale, afin d’étudier des méthodes précises, rapides et robustes, pour l’extraction de structures tubulaires et la segmentation d’image, en développant diverses métriques géodésiques locales pour des applications cliniques et la segmentation d’images en général. / In the fields of medical imaging and computer vision, segmentation plays a crucial role with the goal of separating the interesting components from one image or a sequence of image frames. It bridges the gaps between the low-level image processing and high level clinical and computer vision applications. Among the existing segmentation methods, minimal geodesics have important theoretical and practical advantages such as the global minimum of the geodesic energy and the well-established fast marching method for numerical solution. In this thesis, we focus on the Eikonal partial differential equation based geodesic methods to investigate accurate, fast and robust tubular structure extraction and image segmentation methods, by developing various local geodesic metrics for types of clinical and segmentation tasks. This thesis aims to applying different geodesic metrics based on the Eikonal framework to solve different image segmentation problems especially for tubularity segmentation and region-based active contours models, by making use of more information from the image feature and prior clinical knowledges. The designed geodesic metrics basically take advantages of the geodesic orientation or anisotropy, the image feature consistency, the geodesic curvature and the geodesic asymmetry property to deal with various difficulties suffered by the classical minimal geodesic models and the active contours models. The main contributions of this thesis lie at the deep study of the various geodesic metrics and their applications in medical imaging and image segmentation. Experiments on medical images and nature images show the effectiveness of the presented contributions.
|
299 |
Essay on firm dynamics, competition and International tradeSiwe, Guy Leonel 06 1900 (has links)
Le pouvoir de marché des entreprises a toujours été un sujet d’intérêt tant du point de vue du bien-être économique que de l’allocation des ressources. D’une part, le pouvoir de marché incite les entreprises à moins produire - réduisant le bien-être des consommateurs et d’autre part, la variation de la marge bénéficiaire entre les entreprises induit une friction sur l’allocation des intrants et diminue la productivité agrégée. Suite aux récents débats sur la concentration des parts de marché dans l’économie américaine par une minorité d’entreprises, la question du pouvoir de marché et ses implications ont été largement débattues. Cette thèse, divisée en trois chapitres, contribue à cette vaste littérature d’étude du pouvoir de marché de l’entreprise.
Le premier chapitre examine les causes de la hausse des marges bénéficiaires aux États-Unis dans un environnement où les entreprises accumulent des actifs intangibles. En effet, au cours des quatre dernières décennies, l’économie américaine a connu une augmentation en moyenne des marges bénéficiaires par les entreprises et une augmen- tation de la concentration des parts de marché. Ces faits ont suscité des inquiétudes quant au pouvoir de marché détenu par certaines entreprises et à l’étendue de la concur- rence. Dans ce chapitre, nous proposons une nouvelle méthode d’agrégation des marges bénéficiaires des entreprises utilisant la distribution des parts de marché. Ensuite, nous documentons trois faits empiriques basés sur la distribution jointe des marges et des parts de marché des entreprises cotées en bourse. Premièrement, la hausse de la marge agrégée a été bien inferieure à celle suggerée par la moyenne. Deuxièmement, les plus grandes entreprises en termes de part de marché, appelées "superstars", ne possèdent pas les marges bénéficiaires les plus élevées et troisièmement, la hausse de la marge agrégée résulte principalement d’une réallocation des parts de marché, associée conjointement à une variation des marges des entreprises. Pour expliquer ces faits, nous proposons un modèle où les entreprises accumulent des actifs intangibles sous forme de base de clients le long de leur cycle de vie, en investissant une valeur fixe de leurs ventes. Une baisse dans la rentabilité des entreprises entrainent une réduction temporaire des marges, afin que ces dernières fixent des prix bas et attirent de nouveaux clients. Une hausse des investissements en base de clientèle profite aux entreprises ayant de fortes opportunités de croissance, leur permettant d’accroitre les parts de vente et d’augmenter davantage leur marge bénéficiaire. Ainsi, l’augmentation des investissements en base de clientèle au cours des quatre dernières décennies explique de moitié l’augmentation globale des marges bénéficiaires aux États-Unis.
Le deuxième chapitre examine les implications d’une variation endogène des marges bénéficiaires sur la productivité des usines le long de leur cycle de vie. En effet, la variation des marges bénéficiaires est une potentiel source d’inefficience dans l’allocation des ressources, réduisant la productivité globale. En utilisant l’enquête annuelle sur le secteur manufacturé en Colombie, nous montrons une diminution de la dispersion des marges bénéficiaires avec l’âge, suggérant une convergence des marges bénéficiaires des usines avec l’âge. Nous expliquons et testons cette dynamique à travers d’une théorie d’apprentissage de la demande le long du cycle de vie (à l’exemple de la formation d’une base de la clientèle). Les nouvelles usines obtiennent une productivité et une de demande dès leur entrée et apprenent de leur demande en ajustant leur marge bénéficiaire. Au cours de leur vie, elles accumulent leur demande, ce qui entraine leur croissance et une hausse de leur marge bénéficiaire. La convergence résulte d’une inadéquation entre l’échelle optimale qu’une usine souhaite opérer compte tenu de sa productivité et son échelle de production actuel. Le modèle prédit que la grande dispersion des marges bénéficiaires à l’entrée du marché, entraine une inefficience dans l’allocation des ressources productives et reduit la productivité moyenne à des nouvelles usines. Au fur et à mesure que l’usine prend de l’age, cette friction à l’allocation diminue et contribue à augmenté la productivité moyenne des usines agées.
Dans le troisième chapitre, j’étudie les gains de bien-être associés à des nouveaux investissements en infrastructures de transport. Il s’agit d’un travail de recherche con- joint avec Mathilde Lebrand de la Banque mondiale. En effet, de nombreux travaux ne prennent pas en compte la demande de services de transport lors de l’étude des gains associés à de nouveaux projets d’investissements en infrastructures. Nous développons ainsi un modèle Ricardien multi-pays, multisectoriel avec un secteur des transports dont l’équilibre est déterminer de manière endogène et qui présente deux caractéristiques prin- cipales : une diversité de modes de transport et l’absence de concurrence dans le secteur de transport. Les predictions nous montre que une hausse des investissements en in- frastructures réduisent les coûts d’expédition selon trois marges : une réduction du coût marginal des transporteurs, une diminution de la marge de profit des transporteurs et une reallocation des parts de marché vers les modes de transport les plus bénefiques. Ces deux dernières marges sont particulièrement affectées par les préférences des importateurs en matière de choix de mode de transport. / Firms’ market power has always been a topic of interest in terms of welfare and resource allocations analysis. On the one hand, market power reduces the firms’ incentive to produce, reducing consumer welfare. On the other hand, the variation in firms’ markup induces friction to input allocation and lowers aggregate productivity. With the ongoing debate on sales concentration in the US economy by a few firms, there is a lot of question concerning the causes and implications of market power. This thesis, divided into three chapters, contributes to this vast literature of studying the firm’s market power.
The first chapter discusses the causes of US markup rise in an environment where firms are building intangibles assets. Indeed, over the last four decades, both the average price markups charged by firms and market shares concentration have increased. This raised concerns about market power and the extent of competition. I develop a new method to aggregate firm-level markups using the sales shares distribution. I then document three facts based on the joint distribution of markups and sales shares among publicly listed firms. First, the rise in the aggregate markup has been much less than that suggested by average markups. Second, the largest sales firms-called "superstar firms" are not at the top of the markups distribution and third, the rise in US markup has been driven by a reallocation of sales shares, jointly associated with a change in firm-level markup. To explain these trends, I develop a model where firms accumulate customers base over their life cycle by investing a fixed share of their sales. Changes in firm profitability lead to a temporary reduction in markups as firms attract new customers. An exogenous increase in the share of investment into the customer base benefits firms with high growth oppor- tunities, allowing them to gain more sales share and increase their markup. Therefore, I find that the rise in the share of investment into customer base over the last four decades explains half of the overall increase in US markup.
The second chapter discusses the implications of an endogenous variation in markups to plant productivity over the life cycle. Indeed, markup varies across plants, inducing an inefficiency in allocating resources that lower the aggregate productivity. Using the Annual Columbia Manufacturing survey, I find a decrease in markup dispersion with age, suggesting a convergence of all plant-level markup with age in cross-sectional. I explain and test this dynamic through active learning on demand by plants over the life cycle (e.g. customer base formation). New plants draw a productivity shock and demand shock at entry and actively learn about their demand by adjusting their markup. Over their life, they build their demand and growth in both size and markup. This convergence results from a mismatch between the optimal scale a plant desire to operate and its current scale for a given level of productivity. The model predicts that the high variation in markups at entry induces inefficient input allocation, lowering the average productivity. Along with age, the declines in markups dispersion reduce the allocative inefficiency and foster productivity growth over the life cycle.
In the third chapter, I study the welfare gain from new infrastructures investments. It is joint work with Mathilde Lebrand from the World Bank. Indeed, many frameworks don’t take into account the demand for transport services when studying trade policies. We develop a multi-countries and multi-sectoral Ricardian model with an endogenous transport sector. We introduce two main features for endogeneity: the multi-modality and a lack of competition in the transport sector. New infrastructure investments reduce the shipping cost along three margins: a transporters marginal cost reduction, a decline in the transporters profit margins and a reallocation of market shares across shipping modes. The two last margins are driven by the shipping mode preference for a good.
|
300 |
Three essays in asset pricing and llimate financeN'Dri, Kouadio Stéphane 08 1900 (has links)
Cette thèse, divisée en trois chapitres, contribue à la vaste et récente littérature sur l'évaluation des actifs et la finance climatique. Le premier chapitre contribue à la littérature sur la finance climatique tandis que les deux derniers contribuent à la littérature sur l'évalutaion des actifs.
Le premier chapitre analyse comment les politiques environnementales visant à réduire les émissions de carbone affectent les prix des actifs et la consommation des ménages. En utilisant de nouvelles données, je propose une mesure des émissions de carbone du point de vue du consommateur et une mesure du risque de croissance de la consommation de carbone. Les mesures sont basées sur des informations sur la consommation totale et l'empreinte carbone de chaque bien et service. Pour analyser les effets des politiques environnementales, un modèle de risques de long terme est développé dans lequel la croissance de la consommation comprend deux composantes: le taux de croissance de la consommation de carbone et le taux de croissance de la part de la consommation de carbone dans la consommation totale. Ce chapitre soutient que le risque de long terme de la croissance de la consommation provient principalement de la croissance de la consommation de carbone découlant des politiques et des actions visant à réduire les émissions, telles que l'Accord de Paris et la Conférence des Nations Unies sur le changement climatique (COP26). Mon modèle aide à détecter le risque de long terme dans la consommation des politiques climatiques tout en résolvant simultanément les énigmes de la prime de risque et de la volatilité, et en expliquant la coupe transversale des actifs. La décomposition de la consommation pourrait conduire à identifier les postes de consommation les plus polluants et à construire une stratégie d'investissement minimisant ou maximisant un critère environnemental de long terme.
Le deuxième chapitre (co-écrit avec René Garcia et Caio Almeida) étudie le rôle des facteurs non linéaires indépendants dans la valorisation des actifs. Alors que la majorité des facteurs d'actualisation stochastique (SDF) les plus utilisés qui expliquent la coupe transversale des rendements boursiers sont obtenus à partir des composantes principales linéaires, nous montrons dans ce deuxième chapitre que le fait de permettre la substitution de certaines composantes principales linéaires par des facteurs non linéaires indépendants améliore systématiquement la capacité des facteurs d'actualisation stochastique de valoriser la coupe transversale des actifs. Nous utilisons les 25 portefeuilles de Fama-French, cinquante portefeuilles d'anomalies et cinquante anomalies plus les termes d'interaction basés sur les caractéristiques pour tester l'efficacité des facteurs dynamiques non linéaires. Le SDF estimé à l'aide d'un mélange de facteurs non linéaires et linéaires surpasse ceux qui utilisent uniquement des facteurs linéaires ou des rendements caractéristiques bruts en termes de performance mesurée par le R-carré hors échantillon. De plus, le modèle hybride - utilisant à la fois des composantes principales non linéaires et linéaires - nécessite moins de facteurs de risque pour atteindre les performances hors échantillon les plus élevées par rapport à un modèle utilisant uniquement des facteurs linéaires.
Le dernier chapitre étudie la prévisibilité du rendement des anomalies à travers les déciles à l'aide d'un ensemble de quarante-huit variables d'anomalie construites à partir des caractéristiques de titres individuels. Après avoir construit les portefeuilles déciles, cet article étudie leur prévisibilité en utilisant leurs propres informations passées et d'autres prédicteurs bien connus. Les analyses révèlent que les rendements des portefeuilles déciles sont persistants et prévisibles par le ratio de la valeur comptable sur la valeur de marché de l'entreprise, la variance des actions, le rendement des dividendes, le ratio des prix sur les dividendes, le taux de rendement à long terme, le rendement des obligations d'entreprise, le TED Spread et l'indice VIX. De plus, une stratégie consistant à prendre une position longue sur le décile avec le rendement attendu le plus élevé et à prendre une position courte sur le décile avec le rendement attendu le plus bas chaque mois donne des rendements moyens et un rendement par risque bien meilleurs que la stratégie traditionnelle fondée sur les déciles extrêmes pour quarante-cinq des quarante-huit anomalies. / This thesis, divided into three chapters, contributes to the vast and recent literature on asset pricing, and climate finance. The first chapter contributes to the climate finance literature while the last two contribute to the asset pricing literature.
The first chapter analyzes how environmental policies that aim to reduce carbon emissions affect asset prices and household consumption. Using novel data, I propose a measure of carbon emissions from a consumer point of view and a carbon consumption growth risk measure. The measures are based on information on aggregate consumption and the carbon footprint for each good and service. To analyze the effects of environmental policies, a long-run risks model is developed where consumption growth is decomposed into two components: the growth rate of carbon consumption and the growth rate of the share of carbon consumption out of total consumption. This paper argues that the long-run risk in consumption growth comes mainly from the carbon consumption growth arising from policies and actions to curb emissions, such as the Paris Agreement and the U.N. Climate Change Conference (COP26). My model helps to detect long-run risk in consumption from climate policies while simultaneously solving the equity premium and volatility puzzles, and explaining the cross-section of assets. The decomposition of consumption could lead to identifying the most polluting consumption items and to constructing an investment strategy that minimizes or maximizes a long-term environmental criterion.
The second chapter (co-authored with René Garcia, and Caio Almeida) studies the role of truly independent nonlinear factors in asset pricing. While the most successful stochastic discount factor (SDF) models that price well the cross-section of stock returns are obtained from regularized linear principal components of characteristic-based returns we show that allowing for substitution of some linear principal components by independent nonlinear factors consistently improves the SDF's ability to price this cross-section. We use the Fama-French 25 ME/BM-sorted portfolios, fifty anomaly portfolios, and fifty anomalies plus characteristic-based interaction terms to test the effectiveness of the nonlinear dynamic factors. The SDF estimated using a mixture of nonlinear and linear factors outperforms the ones using solely linear factors or raw characteristic returns in terms of out-of-sample R-squared pricing performance. Moreover, the hybrid model --using both nonlinear and linear principal components-- requires fewer risk factors to achieve the highest out-of-sample performance compared to a model using only linear factors.
The last chapter studies anomaly return predictability across deciles using a set of forty-eight anomaly variables built using individual stock characteristics. After constructing the decile portfolios, this paper studies their predictability using their own past information, and other well-known predictors. The analyses reveal that decile portfolio returns are persistent and predictable by book-to-market, stock variance, dividend yield, dividend price ratio, long-term rate of return, corporate bond return, TED Spread, and VIX index. Moreover, a strategy consisting of going long on the decile with the highest expected return and going short on the decile with the lowest expected return each month gives better mean returns and Sharpe ratios than the traditional strategy based on extreme deciles for forty-five out of forty-eight anomalies.
|
Page generated in 0.0602 seconds