Spelling suggestions: "subject:"composantes"" "subject:"omposantes""
231 |
Exposition des travailleurs du recyclage électronique à des ignifuges et association à des effets endocriniens.Gravel, Sabrina 06 1900 (has links)
Les ignifuges sont ajoutés à divers produits afin de les rendre conformes aux normes d’inflammabilité. Les plus communs sont les polybromodiphényléthers (PBDE) et les esters d’organophosphorés (OPE), qui sont détectés en forte proportion dans la population générale. Quelques industries, comme celle du recyclage électronique, peuvent exposer les travailleurs à des niveaux élevés de ces ignifuges, dont certains sont soupçonnés d’être des perturbateurs endocriniens. L’objectif de cette thèse était d’évaluer l’exposition à des ignifuges chez les travailleurs et d’étudier les effets endocriniens associés.
Trois types de données ont été utilisés. D’abord, deux bases de données populationnelles ont permis de déterminer les valeurs biologiques de base des PBDE chez les travailleurs des populations générales canadienne et états-unienne, et d’identifier les secteurs industriels les plus exposés. Ensuite, une revue systématique de littérature a recensé les niveaux d’exposition professionnelle aux ignifuges dans diverses industries en portant un regard critique sur les méthodes de prélèvement. Finalement, des prélèvements d’air en poste personnel, d’urine et de sang ont été réalisés auprès de 100 travailleurs dans six entreprises de recyclage électronique et une de recyclage commercial. Des modèles Tobit et des régressions de Cox inversées ont identifié les tâches les plus exposantes. L’association entre les mesures biologiques d’exposition et les niveaux d’hormones thyroïdiennes et sexuelles a été explorée avec des modèles Tobit et des régressions sur composantes principales.
L’analyse des données populationnelles a révélé que les travailleurs canadiens, tous secteurs confondus, avaient des concentrations sériques de PBDE 10 à 20% plus élevées que celles des non-travailleurs. La revue systématique a identifié les milieux du recyclage électronique, de la fabrication de câbles, du transport aérien et des casernes d’incendie comme étant parmi les plus exposants aux ignifuges, particulièrement au BDE209. Cependant, les méthodes de prélèvement utilisées dans ces études étaient généralement peu appropriées pour les ignifuges. L’analyse des données de l’étude terrain a mis en évidence des concentrations d’ignifuges dans l’air plus élevées dans le recyclage électronique que dans le recyclage commercial, avec une concentration en BDE209 plus élevée que toutes les valeurs publiées à ce jour (moyenne géométrique [MG] : 5100 ng/m³). Les tâches de démantèlement et de compactage étaient respectivement associées à des expositions en moyenne 2,2 et 1,4 fois plus élevées que celle de supervision. Finalement, les concentrations sanguines de BDE209 (MG : 18 ng/g lipides) chez les travailleurs du recyclage électronique étaient plus élevées que dans le recyclage commercial (MG : 1,7 ng/g lipides), mais moins élevées que celles rapportées dans la fabrication de câbles (moyenne : 54 ng/g lipides). On a estimé chez l’homme des diminutions de 18% de la testostérone libre et totale pour un doublement de la concentration de tb-TPhP (métabolite OPE), et une augmentation de 16% de l’estradiol pour un doublement de la concentration de o-iPr-DPhP (métabolite OPE).
Cette thèse montre que l’exposition aux ignifuges est très répandue, particulièrement chez les travailleurs de quelques industries. Les concentrations plus élevées de certains ignifuges dans le recyclage électronique par rapport aux autres industries, et l’association entre l’exposition aux OPE et les niveaux d’hormones sexuelles chez l’homme ont été identifiées pour la première fois. Bien que devant être reproduits, ces résultats justifient des efforts préventifs de maîtrise de l’exposition aux ignifuges dans cette industrie. / Flame retardants are added to various products to comply to flammability standards. The most common are polybrominated diphenyl ethers (PBDEs) and organophosphate esters (OPEs), which are detected in high proportion in the general population. A few industries, such as electronic recycling, can expose workers to high levels of flame retardants, some of which are suspected of being endocrine disruptors. The objective of this thesis was to evaluate the exposure to flame retardants in workers and to study the associated endocrine effects.
Three types of data were used. First, two population databases were used to determine baseline PBDE levels for workers in the general population in Canada and the United States, and to identify the major industrial sectors that are exposed the most. Then, a systematic literature review identified levels of occupational exposure to flame retardants in various industries while critically examining sampling methods. Finally, personal air, urine and blood samples were collected from 100 workers in six electronic recycling and one commercial recycling companies. Tobit models and reverse Cox regressions identified the most exposing tasks. The association between biological concentrations of flame retardants and thyroid and sex hormone levels was explored with Tobit models and principal component regressions.
The analysis of the population data revealed that Canadian workers, taking all sectors into consideration, had serum PBDE levels 10 to 20% higher than those of non-workers. The systematic review identified electronic recycling, cable manufacturing, air transport and fire stations as some of the workplaces where flame retardants were found in the highest concentrations, particularly BDE209. However, the sampling methods used in these studies were generally not optimal for flame retardants. Analysis of the field study data revealed higher air concentrations of flame retardants in electronic recycling than in commercial recycling, with a higher BDE209 concentration than all values published to date (geometric mean [MG]: 5100 ng/m³). Dismantling and bailing tasks were associated with exposures averaging 2.2 and 1.4 times higher than supervisory tasks, respectively. Finally, blood concentrations of BDE209 (MG: 18 ng/g lipid) in electronic recycling workers were higher than in commercial recycling (MG: 1.7 ng/g lipid), but lower than those reported in cable manufacturing (average: 54 ng/g lipid). Decreases of 18% in free and total testosterone were estimated in humans for a doubling of the concentration of tb-TPhP (OPE metabolite), and a 16% increase in estradiol for a doubling of the concentration of o-iPr-DPhP (OPE metabolite).
This thesis shows that exposure to flame retardants is widespread, particularly among workers in a few industries. The higher concentrations of some flame retardants in electronic recycling compared with other industries, and the association between exposure to OPEs and sex hormone levels in humans were identified for the first time. Although these results must be reproduced, they justify preventive efforts to control exposure to flame retardants in this industry.
|
232 |
Essays in functional econometrics and financial marketsTsafack-Teufack, Idriss 07 1900 (has links)
Dans cette thèse, j’exploite le cadre d’analyse de données fonctionnelles et développe
l’analyse d’inférence et de prédiction, avec une application à des sujets sur les marchés
financiers. Cette thèse est organisée en trois chapitres.
Le premier chapitre est un article co-écrit avec Marine Carrasco. Dans ce chapitre,
nous considérons un modèle de régression linéaire fonctionnelle avec une variable
prédictive fonctionnelle et une réponse scalaire. Nous effectuons une comparaison
théorique des techniques d’analyse des composantes principales fonctionnelles (FPCA)
et des moindres carrés partiels fonctionnels (FPLS). Nous déterminons la vitesse de
convergence de l’erreur quadratique moyen d’estimation (MSE) pour ces méthodes.
Aussi, nous montrons cette vitesse est sharp. Nous découvrons également que le biais
de régularisation de la méthode FPLS est plus petit que celui de FPCA, tandis que
son erreur d’estimation a tendance à être plus grande que celle de FPCA. De plus,
nous montrons que le FPLS surpasse le FPCA en termes de prédiction avec moins de
composantes.
Le deuxième chapitre considère un modèle autorégressif entièrement fonctionnel
(FAR) pour prèvoir toute la courbe de rendement du S&P 500 a la prochaine journée.
Je mène une analyse comparative de quatre techniques de Big Data, dont la méthode de
Tikhonov fonctionnelle (FT), la technique de Landweber-Fridman fonctionnelle (FLF), la
coupure spectrale fonctionnelle (FSC) et les moindres carrés partiels fonctionnels (FPLS).
La vitesse de convergence, la distribution asymptotique et une stratégie de test statistique
pour sélectionner le nombre de retard sont fournis. Les simulations et les données réelles
montrent que les méthode FPLS performe mieux les autres en terme d’estimation du
paramètre tandis que toutes ces méthodes affichent des performances similaires en termes
de prédiction.
Le troisième chapitre propose d’estimer la densité de neutralité au risque (RND) dans
le contexte de la tarification des options, à l’aide d’un modèle fonctionnel. L’avantage de
cette approche est qu’elle exploite la théorie d’absence d’arbitrage et qu’il est possible
d’éviter toute sorte de paramétrisation. L’estimation conduit à un problème d’inversibilité
et la technique fonctionnelle de Landweber-Fridman (FLF) est utilisée pour le surmonter. / In this thesis, I exploit the functional data analysis framework and develop inference,
prediction and forecasting analysis, with an application to topics in the financial market.
This thesis is organized in three chapters.
The first chapter is a paper co-authored with Marine Carrasco. In this chapter,
we consider a functional linear regression model with a functional predictor variable
and a scalar response. We develop a theoretical comparison of the Functional Principal
Component Analysis (FPCA) and Functional Partial Least Squares (FPLS) techniques.
We derive the convergence rate of the Mean Squared Error (MSE) for these methods. We
show that this rate of convergence is sharp. We also find that the regularization bias of
the FPLS method is smaller than the one of FPCA, while its estimation error tends to
be larger than that of FPCA. Additionally, we show that FPLS outperforms FPCA in
terms of prediction accuracy with a fewer number of components.
The second chapter considers a fully functional autoregressive model (FAR) to forecast
the next day’s return curve of the S&P 500. In contrast to the standard AR(1) model
where each observation is a scalar, in this research each daily return curve is a collection
of 390 points and is considered as one observation. I conduct a comparative analysis
of four big data techniques including Functional Tikhonov method (FT), Functional
Landweber-Fridman technique (FLF), Functional spectral-cut off (FSC), and Functional
Partial Least Squares (FPLS). The convergence rate, asymptotic distribution, and a
test-based strategy to select the lag number are provided. Simulations and real data
show that FPLS method tends to outperform the other in terms of estimation accuracy
while all the considered methods display almost the same predictive performance.
The third chapter proposes to estimate the risk neutral density (RND) for options
pricing with a functional linear model. The benefit of this approach is that it exploits
directly the fundamental arbitrage-free equation and it is possible to avoid any additional
density parametrization. The estimation problem leads to an inverse problem and the
functional Landweber-Fridman (FLF) technique is used to overcome this issue.
|
233 |
Essais sur la prévision de la défaillance bancaire : validation empirique des modèles non-paramétriques et étude des déterminants des prêts non performants / Essays on the prediction of bank failure : empirical validation of non-parametric models and study of the determinants of non-performing loansAffes, Zeineb 05 March 2019 (has links)
La récente crise financière qui a débuté aux États-Unis en 2007 a révélé les faiblesses du système bancaire international se traduisant par l’effondrement de nombreuses institutions financières aux États-Unis et aussi par l’augmentation de la part des prêts non performants dans les bilans des banques européennes. Dans ce cadre, nous proposons d’abord d’estimer et de tester l’efficacité des modèles de prévisions des défaillances bancaires. L’objectif étant d’établir un système d’alerte précoce (EWS) de difficultés bancaires basées sur des variables financières selon la typologie CAMEL (Capital adequacy, Asset quality, Management quality, Earnings ability, Liquidity). Dans la première étude, nous avons comparé la classification et la prédiction de l’analyse discriminante canonique (CDA) et de la régression logistique (LR) avec et sans coûts de classification en combinant ces deux modèles paramétriques avec le modèle descriptif d’analyse en composantes principales (ACP). Les résultats montrent que les modèles (LR et CDA) peuvent prédire la faillite des banques avec précision. De plus, les résultats de l’ACP montrent l’importance de la qualité des actifs, de l’adéquation des fonds propres et de la liquidité en tant qu’indicateurs des conditions financières de la banque. Nous avons aussi comparé la performance de deux méthodes non paramétriques, les arbres de classification et de régression (CART) et le nouveau modèle régression multivariée par spline adaptative (MARS), dans la prévision de la défaillance. Un modèle hybride associant ’K-means clustering’ et MARS est également testé. Nous cherchons à modéliser la relation entre dix variables financières et le défaut d’une banque américaine. L’approche comparative a mis en évidence la suprématie du modèle hybride en termes de classification. De plus, les résultats ont montré que les variables d’adéquation du capital sont les plus importantes pour la prévision de la faillite d’une banque. Enfin, nous avons étudié les facteurs déterminants des prêts non performants des banques de l’Union Européenne durant la période 2012-2015 en estimant un modèle à effets fixe sur données de panel. Selon la disponibilité des données nous avons choisi un ensemble de variables qui se réfèrent à la situation macroéconomique du pays de la banque et d’autres variables propres à chaque banque. Les résultats ont prouvé que la dette publique, les provisions pour pertes sur prêts, la marge nette d’intérêt et la rentabilité des capitaux propres affectent positivement les prêts non performants, par contre la taille de la banque et l’adéquation du capital (EQTA et CAR) ont un impact négatif sur les créances douteuses. / The recent financial crisis that began in the United States in 2007 revealed the weaknesses of the international banking system resulting in the collapse of many financial institutions in the United States and also the increase in the share of non-performing loans in the balance sheets of European banks. In this framework, we first propose to estimate and test the effectiveness of banking default forecasting models. The objective is to establish an early warning system (EWS) of banking difficulties based on financial variables according to CAMEL’s ratios (Capital adequacy, Asset quality, Management quality, Earnings ability, Liquidity). In the first study, we compared the classification and the prediction of the canonical discriminant analysis (CDA) and the logistic regression (LR) with and without classification costs by combining these two parametric models with the descriptive model of principal components analysis (PCA). The results show that the LR and the CDA can predict bank failure accurately. In addition, the results of the PCA show the importance of asset quality, capital adequacy and liquidity as indicators of the bank’s financial conditions. We also compared the performance of two non-parametric methods, the classification and regression trees (CART) and the newly multivariate adaptive regression splines (MARS) models, in the prediction of failure. A hybrid model combining ’K-means clustering’ and MARS is also tested. We seek to model the relationship between ten financial variables (CAMEL’s ratios) and the default of a US bank. The comparative approach has highlighted the supremacy of the hybrid model in terms of classification. In addition, the results showed that the capital adequacy variables are the most important for predicting the bankruptcy of a bank. Finally, we studied the determinants of non-performing loans from European Union banks during the period 2012-2015 by estimating a fixed effects model on panel data. Depending on the availability of data we have chosen a set of variables that refer to the macroeconomic situation of the country of the bank and other variables specific to each bank. The results showed that public debt, loan loss provisions, net interest margin and return on equity positively affect non performing loans, while the size of the bank and the adequacy of capital (EQTA and CAR) have a negative impact on bad debts.
|
234 |
Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport / Contributions to the analysis of multivariate functional data, application to the study of the sport horse's locomotionSchmutz, Amandine 15 November 2019 (has links)
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés / With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
|
235 |
Elaboration de céramiques phosphocalciques pour l'ingénierie tissulaire osseuse : étude de l’influence des propriétés physico-chimiques des matériaux sur le comportement biologique in vitro / Elaboration of phosphocalcic ceramics for bone tissue engineering : influence of physico-chemical properties of materials on the biological behavior in vitroGermaini, Marie-Michèle 24 January 2017 (has links)
Cette thèse transdisciplinaire réalisée en collaboration avec le laboratoire SPCTS (Sciences des Procédés Céramiques et Traitement de Surface) et l’EA 3842 (Homéostasie cellulaire et pathologies) de l’université de Limoges est un projet de recherche à l’interface entre la biologie et la chimie et a été consacrée à l’étude de l’influence des propriétés physico-chimiques de biocéramiques de phosphate de calcium sur leur comportement biologique in vitro.L’exploration des processus d’interaction entre matériaux et cellules reste une problématique scientifique de premier plan tant d’un point de vue fondamental qu’appliqué pour la mise au point de biomatériaux performants. L’objectif final est d’optimiser l’efficacité thérapeutique des céramiques phosphocalciques comme matériaux de substitution pour la régénération osseuse. La première partie de la thèse est une revue bibliographique générale présentant la problématique actuelle abordée en lien avec les besoins cliniques et les limitations des études actuelles. Les connaissances sur la biologie du tissu osseux sain ainsi que les aspects de régulation du processus de remodelage osseux ont également été abordés dans ce chapitre. Ce chapitre se termine par une synthèse bibliographique sur les biomatériaux et la régénération osseuse. Le chapitre 2 est relatif à la synthèse puis à la caractérisation physico-chimique des matériaux céramiques. Des céramiques de trois compositions chimiques : HA (hydroxyapatite : Ca10(PO4)6(OH)2 , SiHA (hydroxyapatite silicatée : Ca10(PO4)5,6(SiO4)0,42(OH)1,6 et CHA (hydroxyapatite carbonatée : Ca9,5(PO4)5,5(CO3)0,48(OH)1,08(CO3)0,23 , chacune avec deux microstructures différentes : dense ou poreuse, ont été élaborées et rigoureusement caractérisées (porosité, topographie de surface, mouillabilité, potentiel zêta, taille des grains, distribution et taille des pores, surface spécifique). Le chapitre 3 décrit l’approche expérimentale employée pour l’évaluation biologique des interactions matériaux/cellules explorées dans ce travail. Les analyses biologiques ont été réalisées avec deux lignées cellulaires différentes. La lignée cellulaire pré-ostéoblastique MC3T3-E1 et la lignée cellulaire de monocytes/macrophages, précurseurs des ostéoclastes RAW 264.7, (très importantes pour les aspects osseux, mais moins souvent explorées que les lignées ostéoblastiques dans la littérature). Enfin, le chapitre 4 reporte et commente les résultats biologiques obtenus dans ce travail. Tous les biomatériaux évalués dans cette étude sont biocompatibles, néanmoins, le biomatériau poreux CHA s’est avéré le plus prometteur des six variantes de biomatériaux testés. / This transdisciplinary thesis, carried out in collaboration with the SPCTS laboratory (sciences of ceramic processes and surface treatment) and EA 3842 (Cellular homoeostasis and pathologies) of the University of Limoges, is a research project at the interface between biology and chemistry and was devoted to the study of the influence of the physico-chemical properties of calcium phosphate bioceramics on their biological behavior in vitro.The exploration of the processes of interaction between materials and cells remains a major scientific issue, both from a fundamental and applied point of view for the development of highperformance biomaterials. The ultimate objective is to optimize the therapeutic efficiency of phosphocalcic ceramics as substitute materials for bone regeneration.The first part of the thesis is a general bibliographic review presenting the current issues tackled with the clinical needs and limitations of current studies. Knowledge of the biology of healthy bone tissue as well as the regulatory aspects of the bone remodeling process was also discussed in this chapter. It includes also a bibliographic overview of biomaterials and bone regeneration.Chapter 2 relates to the synthesis and the physico-chemical characterization of ceramic materials. HA (hydroxyapatite: Ca10 (PO4) 6 (OH) 2, SiHA (silicated hydroxyapatite: Ca10 (PO4) 5.6 (SiO4) 0.42 (OH) 1.6 and CHA (carbonated hydroxyapatite: Ca9.5 (PO4) 5.5 (CO3) 0.48 (OH) 1.08 (CO3) 0.23, ceramics each with two different microstructures : dense or porous, have been elaborated and thoroughly characterized (porosity, surface topography, wettability, zeta potential, grain size, pore size and distribution, specific surface area). Chapter 3 describes the experimental approach used for the biological evaluation of the interactions between materials and cells. Biological analyzes were performed with two different cell lines. The pre-osteoblastic MC3T3-E1 cell line and the RAW 264.7cell line of monocytes / macrophages, precursors of the steoclasts, (very important for the bone aspects, but less often explored than the osteoblastic lines in the literature). Finally, Chapter 4 reports and comments on the biological results obtained in this work. All biomaterials evaluated are biocompatible, nevertheless, the porous CHA biomaterial was the most promising of the six variants of biomaterials tested.
|
236 |
Three essays in asset pricing and llimate financeN'Dri, Kouadio Stéphane 08 1900 (has links)
Cette thèse, divisée en trois chapitres, contribue à la vaste et récente littérature sur l'évaluation des actifs et la finance climatique. Le premier chapitre contribue à la littérature sur la finance climatique tandis que les deux derniers contribuent à la littérature sur l'évalutaion des actifs.
Le premier chapitre analyse comment les politiques environnementales visant à réduire les émissions de carbone affectent les prix des actifs et la consommation des ménages. En utilisant de nouvelles données, je propose une mesure des émissions de carbone du point de vue du consommateur et une mesure du risque de croissance de la consommation de carbone. Les mesures sont basées sur des informations sur la consommation totale et l'empreinte carbone de chaque bien et service. Pour analyser les effets des politiques environnementales, un modèle de risques de long terme est développé dans lequel la croissance de la consommation comprend deux composantes: le taux de croissance de la consommation de carbone et le taux de croissance de la part de la consommation de carbone dans la consommation totale. Ce chapitre soutient que le risque de long terme de la croissance de la consommation provient principalement de la croissance de la consommation de carbone découlant des politiques et des actions visant à réduire les émissions, telles que l'Accord de Paris et la Conférence des Nations Unies sur le changement climatique (COP26). Mon modèle aide à détecter le risque de long terme dans la consommation des politiques climatiques tout en résolvant simultanément les énigmes de la prime de risque et de la volatilité, et en expliquant la coupe transversale des actifs. La décomposition de la consommation pourrait conduire à identifier les postes de consommation les plus polluants et à construire une stratégie d'investissement minimisant ou maximisant un critère environnemental de long terme.
Le deuxième chapitre (co-écrit avec René Garcia et Caio Almeida) étudie le rôle des facteurs non linéaires indépendants dans la valorisation des actifs. Alors que la majorité des facteurs d'actualisation stochastique (SDF) les plus utilisés qui expliquent la coupe transversale des rendements boursiers sont obtenus à partir des composantes principales linéaires, nous montrons dans ce deuxième chapitre que le fait de permettre la substitution de certaines composantes principales linéaires par des facteurs non linéaires indépendants améliore systématiquement la capacité des facteurs d'actualisation stochastique de valoriser la coupe transversale des actifs. Nous utilisons les 25 portefeuilles de Fama-French, cinquante portefeuilles d'anomalies et cinquante anomalies plus les termes d'interaction basés sur les caractéristiques pour tester l'efficacité des facteurs dynamiques non linéaires. Le SDF estimé à l'aide d'un mélange de facteurs non linéaires et linéaires surpasse ceux qui utilisent uniquement des facteurs linéaires ou des rendements caractéristiques bruts en termes de performance mesurée par le R-carré hors échantillon. De plus, le modèle hybride - utilisant à la fois des composantes principales non linéaires et linéaires - nécessite moins de facteurs de risque pour atteindre les performances hors échantillon les plus élevées par rapport à un modèle utilisant uniquement des facteurs linéaires.
Le dernier chapitre étudie la prévisibilité du rendement des anomalies à travers les déciles à l'aide d'un ensemble de quarante-huit variables d'anomalie construites à partir des caractéristiques de titres individuels. Après avoir construit les portefeuilles déciles, cet article étudie leur prévisibilité en utilisant leurs propres informations passées et d'autres prédicteurs bien connus. Les analyses révèlent que les rendements des portefeuilles déciles sont persistants et prévisibles par le ratio de la valeur comptable sur la valeur de marché de l'entreprise, la variance des actions, le rendement des dividendes, le ratio des prix sur les dividendes, le taux de rendement à long terme, le rendement des obligations d'entreprise, le TED Spread et l'indice VIX. De plus, une stratégie consistant à prendre une position longue sur le décile avec le rendement attendu le plus élevé et à prendre une position courte sur le décile avec le rendement attendu le plus bas chaque mois donne des rendements moyens et un rendement par risque bien meilleurs que la stratégie traditionnelle fondée sur les déciles extrêmes pour quarante-cinq des quarante-huit anomalies. / This thesis, divided into three chapters, contributes to the vast and recent literature on asset pricing, and climate finance. The first chapter contributes to the climate finance literature while the last two contribute to the asset pricing literature.
The first chapter analyzes how environmental policies that aim to reduce carbon emissions affect asset prices and household consumption. Using novel data, I propose a measure of carbon emissions from a consumer point of view and a carbon consumption growth risk measure. The measures are based on information on aggregate consumption and the carbon footprint for each good and service. To analyze the effects of environmental policies, a long-run risks model is developed where consumption growth is decomposed into two components: the growth rate of carbon consumption and the growth rate of the share of carbon consumption out of total consumption. This paper argues that the long-run risk in consumption growth comes mainly from the carbon consumption growth arising from policies and actions to curb emissions, such as the Paris Agreement and the U.N. Climate Change Conference (COP26). My model helps to detect long-run risk in consumption from climate policies while simultaneously solving the equity premium and volatility puzzles, and explaining the cross-section of assets. The decomposition of consumption could lead to identifying the most polluting consumption items and to constructing an investment strategy that minimizes or maximizes a long-term environmental criterion.
The second chapter (co-authored with René Garcia, and Caio Almeida) studies the role of truly independent nonlinear factors in asset pricing. While the most successful stochastic discount factor (SDF) models that price well the cross-section of stock returns are obtained from regularized linear principal components of characteristic-based returns we show that allowing for substitution of some linear principal components by independent nonlinear factors consistently improves the SDF's ability to price this cross-section. We use the Fama-French 25 ME/BM-sorted portfolios, fifty anomaly portfolios, and fifty anomalies plus characteristic-based interaction terms to test the effectiveness of the nonlinear dynamic factors. The SDF estimated using a mixture of nonlinear and linear factors outperforms the ones using solely linear factors or raw characteristic returns in terms of out-of-sample R-squared pricing performance. Moreover, the hybrid model --using both nonlinear and linear principal components-- requires fewer risk factors to achieve the highest out-of-sample performance compared to a model using only linear factors.
The last chapter studies anomaly return predictability across deciles using a set of forty-eight anomaly variables built using individual stock characteristics. After constructing the decile portfolios, this paper studies their predictability using their own past information, and other well-known predictors. The analyses reveal that decile portfolio returns are persistent and predictable by book-to-market, stock variance, dividend yield, dividend price ratio, long-term rate of return, corporate bond return, TED Spread, and VIX index. Moreover, a strategy consisting of going long on the decile with the highest expected return and going short on the decile with the lowest expected return each month gives better mean returns and Sharpe ratios than the traditional strategy based on extreme deciles for forty-five out of forty-eight anomalies.
|
237 |
Phytochemical investigation of Acronychia species using NMR and LC-MS based dereplication and metabolomics approaches / Etude phytochimique d’espèces du genre Acronychia en utilisant des approches de déréplication et métabolomique basées sur des techniques RMN et SMKouloura, Eirini 28 November 2014 (has links)
Les plantes médicinales constituent une source inexhaustible de composés (des produits naturels - PN) utilisé en médecine pour la prévention et le traitement de diverses maladies. L'introduction de nouvelles technologies et méthodes dans le domaine de la chimie des produits naturels a permis le développement de méthodes ‘high throughput’ pour la détermination de la composition chimique des extraits de plantes, l'évaluation de leurs propriétés et l'exploration de leur potentiel en tant que candidats médicaments. Dernièrement, la métabolomique, une approche intégrée incorporant les avantages des technologies d'analyse moderne et la puissance de la bioinformatique s’est révélé un outil efficace dans la biologie des systèmes. En particulier, l'application de la métabolomique pour la découverte de nouveaux composés bioactifs constitue un domaine émergent dans la chimie des produits naturels. Dans ce contexte, le genre Acronychia de la famille des Rutaceae a été choisi sur la base de son usage en médecine traditionnelle pour ses propriétés antimicrobienne, antipyrétique, antispasmodique et anti-inflammatoire. Nombre de méthodes chromatographiques modernes, spectrométriques et spectroscopiques sont utilisées pour l'exploration de leur contenu en métabolites suivant trois axes principaux constituant les trois chapitres de cette thèse. En bref, le premier chapitre décrit l’étude phytochimique d’Acronychia pedunculata, l’identification des métabolites secondaires contenus dans cette espèce et l'évaluation de leurs propriétés biologiques. Le deuxième chapitre vise au développement de méthodes analytiques pour l'identification des dimères d’acétophénones (marqueurs chimiotaxonomiques du genre) et aux stratégies utilisées pour la déréplication de ces différents extraits et la caractérisation chimique des composés par UHPLC-HRMSn. Le troisième chapitre se concentre sur l'application de méthodologies métabolomique (RMN et LC-MS) pour l'analyse comparative (entre les différentes espèces, origines, organes), pour des études chimiotaxonomiques (entre les espèces) et pour la corrélation des composés contenus avec une activité pharmacologique. / Medicinal plants constitute an unfailing source of compounds (natural products – NPs) utilised in medicine for the prevention and treatment of various deceases. The introduction of new technologies and methods in the field of natural products chemistry enabled the development of high throughput methodologies for the chemical composition determination of plant extracts, evaluation of their properties and the exploration of their potentials as drug candidates. Lately, metabolomics, an integrated approach incorporating the advantages of modern analytical technologies and the power of bioinformatics has been proven an efficient tool in systems biology. In particular, the application of metabolomics for the discovery of new bioactive compounds constitutes an emerging field in natural products chemistry. In this context, Acronychia genus of Rutaceae family was selected based on its well-known traditional use as antimicrobial, antipyretic, antispasmodic and anti-inflammatory therapeutic agent. Modern chromatographic, spectrometric and spectroscopic methods were utilised for the exploration of their metabolite content following three basic axes constituting the three chapters of this thesis. Briefly, the first chapter describes the phytochemical investigation of Acronychia pedunculata, the identification of secondary metabolites contained in this species and evaluation of their biological properties. The second chapter refers to the development of analytical methods for the identification of acetophenones (chemotaxonomic markers of the genus) and to the dereplication strategies for the chemical characterisation of extracts by UHPLC-HRMSn. The third chapter focuses on the application of metabolomic methodologies (LC-MS & NMR) for comparative analysis (between different species, origins, organs), chemotaxonomic studies (between species) and compound-activity correlations.
|
238 |
Etude de champs de température séparables avec une double décomposition en valeurs singulières : quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif / Study of separable temperatur fields with a double singular value decomposition : some applications in characterization of thermophysical properties of materials and non destructive testingAyvazyan, Vigen 14 December 2012 (has links)
La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L’avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d’une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d’adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d’informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L’analyse de sensibilité, basée sur l’étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la «physique» des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé. / Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the «physical» meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise.
|
Page generated in 0.0454 seconds