• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 27
  • 6
  • 1
  • Tagged with
  • 117
  • 117
  • 106
  • 57
  • 54
  • 43
  • 33
  • 24
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Essais sur la prévision de la défaillance bancaire : validation empirique des modèles non-paramétriques et étude des déterminants des prêts non performants / Essays on the prediction of bank failure : empirical validation of non-parametric models and study of the determinants of non-performing loans

Affes, Zeineb 05 March 2019 (has links)
La récente crise financière qui a débuté aux États-Unis en 2007 a révélé les faiblesses du système bancaire international se traduisant par l’effondrement de nombreuses institutions financières aux États-Unis et aussi par l’augmentation de la part des prêts non performants dans les bilans des banques européennes. Dans ce cadre, nous proposons d’abord d’estimer et de tester l’efficacité des modèles de prévisions des défaillances bancaires. L’objectif étant d’établir un système d’alerte précoce (EWS) de difficultés bancaires basées sur des variables financières selon la typologie CAMEL (Capital adequacy, Asset quality, Management quality, Earnings ability, Liquidity). Dans la première étude, nous avons comparé la classification et la prédiction de l’analyse discriminante canonique (CDA) et de la régression logistique (LR) avec et sans coûts de classification en combinant ces deux modèles paramétriques avec le modèle descriptif d’analyse en composantes principales (ACP). Les résultats montrent que les modèles (LR et CDA) peuvent prédire la faillite des banques avec précision. De plus, les résultats de l’ACP montrent l’importance de la qualité des actifs, de l’adéquation des fonds propres et de la liquidité en tant qu’indicateurs des conditions financières de la banque. Nous avons aussi comparé la performance de deux méthodes non paramétriques, les arbres de classification et de régression (CART) et le nouveau modèle régression multivariée par spline adaptative (MARS), dans la prévision de la défaillance. Un modèle hybride associant ’K-means clustering’ et MARS est également testé. Nous cherchons à modéliser la relation entre dix variables financières et le défaut d’une banque américaine. L’approche comparative a mis en évidence la suprématie du modèle hybride en termes de classification. De plus, les résultats ont montré que les variables d’adéquation du capital sont les plus importantes pour la prévision de la faillite d’une banque. Enfin, nous avons étudié les facteurs déterminants des prêts non performants des banques de l’Union Européenne durant la période 2012-2015 en estimant un modèle à effets fixe sur données de panel. Selon la disponibilité des données nous avons choisi un ensemble de variables qui se réfèrent à la situation macroéconomique du pays de la banque et d’autres variables propres à chaque banque. Les résultats ont prouvé que la dette publique, les provisions pour pertes sur prêts, la marge nette d’intérêt et la rentabilité des capitaux propres affectent positivement les prêts non performants, par contre la taille de la banque et l’adéquation du capital (EQTA et CAR) ont un impact négatif sur les créances douteuses. / The recent financial crisis that began in the United States in 2007 revealed the weaknesses of the international banking system resulting in the collapse of many financial institutions in the United States and also the increase in the share of non-performing loans in the balance sheets of European banks. In this framework, we first propose to estimate and test the effectiveness of banking default forecasting models. The objective is to establish an early warning system (EWS) of banking difficulties based on financial variables according to CAMEL’s ratios (Capital adequacy, Asset quality, Management quality, Earnings ability, Liquidity). In the first study, we compared the classification and the prediction of the canonical discriminant analysis (CDA) and the logistic regression (LR) with and without classification costs by combining these two parametric models with the descriptive model of principal components analysis (PCA). The results show that the LR and the CDA can predict bank failure accurately. In addition, the results of the PCA show the importance of asset quality, capital adequacy and liquidity as indicators of the bank’s financial conditions. We also compared the performance of two non-parametric methods, the classification and regression trees (CART) and the newly multivariate adaptive regression splines (MARS) models, in the prediction of failure. A hybrid model combining ’K-means clustering’ and MARS is also tested. We seek to model the relationship between ten financial variables (CAMEL’s ratios) and the default of a US bank. The comparative approach has highlighted the supremacy of the hybrid model in terms of classification. In addition, the results showed that the capital adequacy variables are the most important for predicting the bankruptcy of a bank. Finally, we studied the determinants of non-performing loans from European Union banks during the period 2012-2015 by estimating a fixed effects model on panel data. Depending on the availability of data we have chosen a set of variables that refer to the macroeconomic situation of the country of the bank and other variables specific to each bank. The results showed that public debt, loan loss provisions, net interest margin and return on equity positively affect non performing loans, while the size of the bank and the adequacy of capital (EQTA and CAR) have a negative impact on bad debts.
112

Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport / Contributions to the analysis of multivariate functional data, application to the study of the sport horse's locomotion

Schmutz, Amandine 15 November 2019 (has links)
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés / With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
113

Elaboration de céramiques phosphocalciques pour l'ingénierie tissulaire osseuse : étude de l’influence des propriétés physico-chimiques des matériaux sur le comportement biologique in vitro / Elaboration of phosphocalcic ceramics for bone tissue engineering : influence of physico-chemical properties of materials on the biological behavior in vitro

Germaini, Marie-Michèle 24 January 2017 (has links)
Cette thèse transdisciplinaire réalisée en collaboration avec le laboratoire SPCTS (Sciences des Procédés Céramiques et Traitement de Surface) et l’EA 3842 (Homéostasie cellulaire et pathologies) de l’université de Limoges est un projet de recherche à l’interface entre la biologie et la chimie et a été consacrée à l’étude de l’influence des propriétés physico-chimiques de biocéramiques de phosphate de calcium sur leur comportement biologique in vitro.L’exploration des processus d’interaction entre matériaux et cellules reste une problématique scientifique de premier plan tant d’un point de vue fondamental qu’appliqué pour la mise au point de biomatériaux performants. L’objectif final est d’optimiser l’efficacité thérapeutique des céramiques phosphocalciques comme matériaux de substitution pour la régénération osseuse. La première partie de la thèse est une revue bibliographique générale présentant la problématique actuelle abordée en lien avec les besoins cliniques et les limitations des études actuelles. Les connaissances sur la biologie du tissu osseux sain ainsi que les aspects de régulation du processus de remodelage osseux ont également été abordés dans ce chapitre. Ce chapitre se termine par une synthèse bibliographique sur les biomatériaux et la régénération osseuse. Le chapitre 2 est relatif à la synthèse puis à la caractérisation physico-chimique des matériaux céramiques. Des céramiques de trois compositions chimiques : HA (hydroxyapatite : Ca10(PO4)6(OH)2 , SiHA (hydroxyapatite silicatée : Ca10(PO4)5,6(SiO4)0,42(OH)1,6 et CHA (hydroxyapatite carbonatée : Ca9,5(PO4)5,5(CO3)0,48(OH)1,08(CO3)0,23 , chacune avec deux microstructures différentes : dense ou poreuse, ont été élaborées et rigoureusement caractérisées (porosité, topographie de surface, mouillabilité, potentiel zêta, taille des grains, distribution et taille des pores, surface spécifique). Le chapitre 3 décrit l’approche expérimentale employée pour l’évaluation biologique des interactions matériaux/cellules explorées dans ce travail. Les analyses biologiques ont été réalisées avec deux lignées cellulaires différentes. La lignée cellulaire pré-ostéoblastique MC3T3-E1 et la lignée cellulaire de monocytes/macrophages, précurseurs des ostéoclastes RAW 264.7, (très importantes pour les aspects osseux, mais moins souvent explorées que les lignées ostéoblastiques dans la littérature). Enfin, le chapitre 4 reporte et commente les résultats biologiques obtenus dans ce travail. Tous les biomatériaux évalués dans cette étude sont biocompatibles, néanmoins, le biomatériau poreux CHA s’est avéré le plus prometteur des six variantes de biomatériaux testés. / This transdisciplinary thesis, carried out in collaboration with the SPCTS laboratory (sciences of ceramic processes and surface treatment) and EA 3842 (Cellular homoeostasis and pathologies) of the University of Limoges, is a research project at the interface between biology and chemistry and was devoted to the study of the influence of the physico-chemical properties of calcium phosphate bioceramics on their biological behavior in vitro.The exploration of the processes of interaction between materials and cells remains a major scientific issue, both from a fundamental and applied point of view for the development of highperformance biomaterials. The ultimate objective is to optimize the therapeutic efficiency of phosphocalcic ceramics as substitute materials for bone regeneration.The first part of the thesis is a general bibliographic review presenting the current issues tackled with the clinical needs and limitations of current studies. Knowledge of the biology of healthy bone tissue as well as the regulatory aspects of the bone remodeling process was also discussed in this chapter. It includes also a bibliographic overview of biomaterials and bone regeneration.Chapter 2 relates to the synthesis and the physico-chemical characterization of ceramic materials. HA (hydroxyapatite: Ca10 (PO4) 6 (OH) 2, SiHA (silicated hydroxyapatite: Ca10 (PO4) 5.6 (SiO4) 0.42 (OH) 1.6 and CHA (carbonated hydroxyapatite: Ca9.5 (PO4) 5.5 (CO3) 0.48 (OH) 1.08 (CO3) 0.23, ceramics each with two different microstructures : dense or porous, have been elaborated and thoroughly characterized (porosity, surface topography, wettability, zeta potential, grain size, pore size and distribution, specific surface area). Chapter 3 describes the experimental approach used for the biological evaluation of the interactions between materials and cells. Biological analyzes were performed with two different cell lines. The pre-osteoblastic MC3T3-E1 cell line and the RAW 264.7cell line of monocytes / macrophages, precursors of the steoclasts, (very important for the bone aspects, but less often explored than the osteoblastic lines in the literature). Finally, Chapter 4 reports and comments on the biological results obtained in this work. All biomaterials evaluated are biocompatible, nevertheless, the porous CHA biomaterial was the most promising of the six variants of biomaterials tested.
114

Three essays in asset pricing and llimate finance

N'Dri, Kouadio Stéphane 08 1900 (has links)
Cette thèse, divisée en trois chapitres, contribue à la vaste et récente littérature sur l'évaluation des actifs et la finance climatique. Le premier chapitre contribue à la littérature sur la finance climatique tandis que les deux derniers contribuent à la littérature sur l'évalutaion des actifs. Le premier chapitre analyse comment les politiques environnementales visant à réduire les émissions de carbone affectent les prix des actifs et la consommation des ménages. En utilisant de nouvelles données, je propose une mesure des émissions de carbone du point de vue du consommateur et une mesure du risque de croissance de la consommation de carbone. Les mesures sont basées sur des informations sur la consommation totale et l'empreinte carbone de chaque bien et service. Pour analyser les effets des politiques environnementales, un modèle de risques de long terme est développé dans lequel la croissance de la consommation comprend deux composantes: le taux de croissance de la consommation de carbone et le taux de croissance de la part de la consommation de carbone dans la consommation totale. Ce chapitre soutient que le risque de long terme de la croissance de la consommation provient principalement de la croissance de la consommation de carbone découlant des politiques et des actions visant à réduire les émissions, telles que l'Accord de Paris et la Conférence des Nations Unies sur le changement climatique (COP26). Mon modèle aide à détecter le risque de long terme dans la consommation des politiques climatiques tout en résolvant simultanément les énigmes de la prime de risque et de la volatilité, et en expliquant la coupe transversale des actifs. La décomposition de la consommation pourrait conduire à identifier les postes de consommation les plus polluants et à construire une stratégie d'investissement minimisant ou maximisant un critère environnemental de long terme. Le deuxième chapitre (co-écrit avec René Garcia et Caio Almeida) étudie le rôle des facteurs non linéaires indépendants dans la valorisation des actifs. Alors que la majorité des facteurs d'actualisation stochastique (SDF) les plus utilisés qui expliquent la coupe transversale des rendements boursiers sont obtenus à partir des composantes principales linéaires, nous montrons dans ce deuxième chapitre que le fait de permettre la substitution de certaines composantes principales linéaires par des facteurs non linéaires indépendants améliore systématiquement la capacité des facteurs d'actualisation stochastique de valoriser la coupe transversale des actifs. Nous utilisons les 25 portefeuilles de Fama-French, cinquante portefeuilles d'anomalies et cinquante anomalies plus les termes d'interaction basés sur les caractéristiques pour tester l'efficacité des facteurs dynamiques non linéaires. Le SDF estimé à l'aide d'un mélange de facteurs non linéaires et linéaires surpasse ceux qui utilisent uniquement des facteurs linéaires ou des rendements caractéristiques bruts en termes de performance mesurée par le R-carré hors échantillon. De plus, le modèle hybride - utilisant à la fois des composantes principales non linéaires et linéaires - nécessite moins de facteurs de risque pour atteindre les performances hors échantillon les plus élevées par rapport à un modèle utilisant uniquement des facteurs linéaires. Le dernier chapitre étudie la prévisibilité du rendement des anomalies à travers les déciles à l'aide d'un ensemble de quarante-huit variables d'anomalie construites à partir des caractéristiques de titres individuels. Après avoir construit les portefeuilles déciles, cet article étudie leur prévisibilité en utilisant leurs propres informations passées et d'autres prédicteurs bien connus. Les analyses révèlent que les rendements des portefeuilles déciles sont persistants et prévisibles par le ratio de la valeur comptable sur la valeur de marché de l'entreprise, la variance des actions, le rendement des dividendes, le ratio des prix sur les dividendes, le taux de rendement à long terme, le rendement des obligations d'entreprise, le TED Spread et l'indice VIX. De plus, une stratégie consistant à prendre une position longue sur le décile avec le rendement attendu le plus élevé et à prendre une position courte sur le décile avec le rendement attendu le plus bas chaque mois donne des rendements moyens et un rendement par risque bien meilleurs que la stratégie traditionnelle fondée sur les déciles extrêmes pour quarante-cinq des quarante-huit anomalies. / This thesis, divided into three chapters, contributes to the vast and recent literature on asset pricing, and climate finance. The first chapter contributes to the climate finance literature while the last two contribute to the asset pricing literature. The first chapter analyzes how environmental policies that aim to reduce carbon emissions affect asset prices and household consumption. Using novel data, I propose a measure of carbon emissions from a consumer point of view and a carbon consumption growth risk measure. The measures are based on information on aggregate consumption and the carbon footprint for each good and service. To analyze the effects of environmental policies, a long-run risks model is developed where consumption growth is decomposed into two components: the growth rate of carbon consumption and the growth rate of the share of carbon consumption out of total consumption. This paper argues that the long-run risk in consumption growth comes mainly from the carbon consumption growth arising from policies and actions to curb emissions, such as the Paris Agreement and the U.N. Climate Change Conference (COP26). My model helps to detect long-run risk in consumption from climate policies while simultaneously solving the equity premium and volatility puzzles, and explaining the cross-section of assets. The decomposition of consumption could lead to identifying the most polluting consumption items and to constructing an investment strategy that minimizes or maximizes a long-term environmental criterion. The second chapter (co-authored with René Garcia, and Caio Almeida) studies the role of truly independent nonlinear factors in asset pricing. While the most successful stochastic discount factor (SDF) models that price well the cross-section of stock returns are obtained from regularized linear principal components of characteristic-based returns we show that allowing for substitution of some linear principal components by independent nonlinear factors consistently improves the SDF's ability to price this cross-section. We use the Fama-French 25 ME/BM-sorted portfolios, fifty anomaly portfolios, and fifty anomalies plus characteristic-based interaction terms to test the effectiveness of the nonlinear dynamic factors. The SDF estimated using a mixture of nonlinear and linear factors outperforms the ones using solely linear factors or raw characteristic returns in terms of out-of-sample R-squared pricing performance. Moreover, the hybrid model --using both nonlinear and linear principal components-- requires fewer risk factors to achieve the highest out-of-sample performance compared to a model using only linear factors. The last chapter studies anomaly return predictability across deciles using a set of forty-eight anomaly variables built using individual stock characteristics. After constructing the decile portfolios, this paper studies their predictability using their own past information, and other well-known predictors. The analyses reveal that decile portfolio returns are persistent and predictable by book-to-market, stock variance, dividend yield, dividend price ratio, long-term rate of return, corporate bond return, TED Spread, and VIX index. Moreover, a strategy consisting of going long on the decile with the highest expected return and going short on the decile with the lowest expected return each month gives better mean returns and Sharpe ratios than the traditional strategy based on extreme deciles for forty-five out of forty-eight anomalies.
115

Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical

Zarzoso, Vicente 09 November 2009 (has links) (PDF)
Ce rapport résume mes activités de recherche depuis l'obtention de mon doctorat. Je me suis penché sur le problème fondamental de l'estimation de signaux sources à partir de l'observation de mesures corrompues de ces signaux, dans des scénarios où les données mesurées peuvent être considérées comme une transformation linéaire inconnue des sources. Deux problèmes classiques de ce type sont la déconvolution ou égalisation de canaux introduisant des distorsions linéaires, et la séparation de sources dans des mélanges linéaires. L'approche dite aveugle essaie d'exploiter un moindre nombre d'hypothèses sur le problème à résoudre : celles-ci se réduisent typiquement à l'indépendance statistique des sources et l'inversibilité du canal ou de la matrice de mélange caractérisant le milieu de propagation. Malgré les avantages qui ont suscité l'intérêt pour ces techniques depuis les années soixante-dix, les critères aveugles présentent aussi quelques inconvénients importants, tels que l'existence d'ambiguïtés dans l'estimation, la présence d'extrema locaux associés à des solutions parasites, et un coût de calcul élevé souvent lié à une convergence lente. Ma recherche s'est consacrée à la conception de nouvelles techniques d'estimation de signal visant à pallier aux inconvénients de l'approche aveugle et donc à améliorer ses performances. Une attention particulière a été portée sur deux applications dans les télécommunications et le génie biomédical : l'égalisation et la séparation de sources dans des canaux de communications numériques, et l'extraction de l'activité auriculaire à partir des enregistrements de surface chez les patients souffrant de fibrillation auriculaire. La plupart des techniques proposées peuvent être considérées comme étant semi-aveugles, dans le sens où elles visent à exploiter des informations a priori sur le problème étudié autres que l'indépendance des sources ; par exemple, l'existence de symboles pilotes dans les systèmes de communications ou des propriétés spécifiques de la source atriale dans la fibrillation auriculaire. Dans les télécommunications, les approches que j'ai explorées incluent des solutions algébriques aux fonctions de contraste basées sur la modulation numérique, la combinaison de contrastes aveugles et supervisés dans des critères semi-aveugles, et une technique d'optimisation itérative basée sur un pas d'adaptation calculé algébriquement. Nos efforts visant à extraire le signal atrial dans des enregistrements de fibrillation auriculaire nous ont permis non seulement de dégager de nouvelles fonctions de contraste basées sur les statistiques de second ordre et d'ordre élevé incorporant l'information a priori sur les statistiques des sources, mais aussi d'aboutir à de nouveaux résultats d'impact clinique et physiologique sur ce trouble cardiaque encore mal compris. Ce rapport se conclut en proposant quelques perspectives pour la continuation de ces travaux. Ces recherches ont été menées en collaboration avec un nombre de collègues en France et à l'étranger, et ont également compris le co-encadrement de plusieurs doctorants. Les contributions qui en ont découlé ont donné lieu à plus de soixante publications dans des journaux, des conférences et des ouvrages collectifs à caractère international. Quelques-unes de ces publications sont jointes à ce document.
116

Phytochemical investigation of Acronychia species using NMR and LC-MS based dereplication and metabolomics approaches / Etude phytochimique d’espèces du genre Acronychia en utilisant des approches de déréplication et métabolomique basées sur des techniques RMN et SM

Kouloura, Eirini 28 November 2014 (has links)
Les plantes médicinales constituent une source inexhaustible de composés (des produits naturels - PN) utilisé en médecine pour la prévention et le traitement de diverses maladies. L'introduction de nouvelles technologies et méthodes dans le domaine de la chimie des produits naturels a permis le développement de méthodes ‘high throughput’ pour la détermination de la composition chimique des extraits de plantes, l'évaluation de leurs propriétés et l'exploration de leur potentiel en tant que candidats médicaments. Dernièrement, la métabolomique, une approche intégrée incorporant les avantages des technologies d'analyse moderne et la puissance de la bioinformatique s’est révélé un outil efficace dans la biologie des systèmes. En particulier, l'application de la métabolomique pour la découverte de nouveaux composés bioactifs constitue un domaine émergent dans la chimie des produits naturels. Dans ce contexte, le genre Acronychia de la famille des Rutaceae a été choisi sur la base de son usage en médecine traditionnelle pour ses propriétés antimicrobienne, antipyrétique, antispasmodique et anti-inflammatoire. Nombre de méthodes chromatographiques modernes, spectrométriques et spectroscopiques sont utilisées pour l'exploration de leur contenu en métabolites suivant trois axes principaux constituant les trois chapitres de cette thèse. En bref, le premier chapitre décrit l’étude phytochimique d’Acronychia pedunculata, l’identification des métabolites secondaires contenus dans cette espèce et l'évaluation de leurs propriétés biologiques. Le deuxième chapitre vise au développement de méthodes analytiques pour l'identification des dimères d’acétophénones (marqueurs chimiotaxonomiques du genre) et aux stratégies utilisées pour la déréplication de ces différents extraits et la caractérisation chimique des composés par UHPLC-HRMSn. Le troisième chapitre se concentre sur l'application de méthodologies métabolomique (RMN et LC-MS) pour l'analyse comparative (entre les différentes espèces, origines, organes), pour des études chimiotaxonomiques (entre les espèces) et pour la corrélation des composés contenus avec une activité pharmacologique. / Medicinal plants constitute an unfailing source of compounds (natural products – NPs) utilised in medicine for the prevention and treatment of various deceases. The introduction of new technologies and methods in the field of natural products chemistry enabled the development of high throughput methodologies for the chemical composition determination of plant extracts, evaluation of their properties and the exploration of their potentials as drug candidates. Lately, metabolomics, an integrated approach incorporating the advantages of modern analytical technologies and the power of bioinformatics has been proven an efficient tool in systems biology. In particular, the application of metabolomics for the discovery of new bioactive compounds constitutes an emerging field in natural products chemistry. In this context, Acronychia genus of Rutaceae family was selected based on its well-known traditional use as antimicrobial, antipyretic, antispasmodic and anti-inflammatory therapeutic agent. Modern chromatographic, spectrometric and spectroscopic methods were utilised for the exploration of their metabolite content following three basic axes constituting the three chapters of this thesis. Briefly, the first chapter describes the phytochemical investigation of Acronychia pedunculata, the identification of secondary metabolites contained in this species and evaluation of their biological properties. The second chapter refers to the development of analytical methods for the identification of acetophenones (chemotaxonomic markers of the genus) and to the dereplication strategies for the chemical characterisation of extracts by UHPLC-HRMSn. The third chapter focuses on the application of metabolomic methodologies (LC-MS & NMR) for comparative analysis (between different species, origins, organs), chemotaxonomic studies (between species) and compound-activity correlations.
117

Etude de champs de température séparables avec une double décomposition en valeurs singulières : quelques applications à la caractérisation des propriétés thermophysiques des matérieux et au contrôle non destructif / Study of separable temperatur fields with a double singular value decomposition : some applications in characterization of thermophysical properties of materials and non destructive testing

Ayvazyan, Vigen 14 December 2012 (has links)
La thermographie infrarouge est une méthode largement employée pour la caractérisation des propriétés thermophysiques des matériaux. L’avènement des diodes laser pratiques, peu onéreuses et aux multiples caractéristiques, étendent les possibilités métrologiques des caméras infrarouges et mettent à disposition un ensemble de nouveaux outils puissants pour la caractérisation thermique et le contrôle non desturctif. Cependant, un lot de nouvelles difficultés doit être surmonté, comme le traitement d’une grande quantité de données bruitées et la faible sensibilité de ces données aux paramètres recherchés. Cela oblige de revisiter les méthodes de traitement du signal existantes, d’adopter de nouveaux outils mathématiques sophistiqués pour la compression de données et le traitement d’informations pertinentes. Les nouvelles stratégies consistent à utiliser des transformations orthogonales du signal comme outils de compression préalable de données, de réduction et maîtrise du bruit de mesure. L’analyse de sensibilité, basée sur l’étude locale des corrélations entre les dérivées partielles du signal expérimental, complète ces nouvelles approches. L'analogie avec la théorie dans l'espace de Fourier a permis d'apporter de nouveaux éléments de réponse pour mieux cerner la «physique» des approches modales.La réponse au point source impulsionnel a été revisitée de manière numérique et expérimentale. En utilisant la séparabilité des champs de température nous avons proposé une nouvelle méthode d'inversion basée sur une double décomposition en valeurs singulières du signal expérimental. Cette méthode par rapport aux précédentes, permet de tenir compte de la diffusion bi ou tridimensionnelle et offre ainsi une meilleure exploitation du contenu spatial des images infrarouges. Des exemples numériques et expérimentaux nous ont permis de valider dans une première approche cette nouvelle méthode d'estimation pour la caractérisation de diffusivités thermiques longitudinales. Des applications dans le domaine du contrôle non destructif des matériaux sont également proposées. Une ancienne problématique qui consiste à retrouver les champs de température initiaux à partir de données bruitées a été abordée sous un nouveau jour. La nécessité de connaitre les diffusivités thermiques du matériau orthotrope et la prise en compte des transferts souvent tridimensionnels sont complexes à gérer. L'application de la double décomposition en valeurs singulières a permis d'obtenir des résultats intéressants compte tenu de la simplicité de la méthode. En effet, les méthodes modales sont basées sur des approches statistiques de traitement d'une grande quantité de données, censément plus robustes quant au bruit de mesure, comme cela a pu être observé. / Infrared thermography is a widely used method for characterization of thermophysical properties of materials. The advent of the laser diodes, which are handy, inexpensive, with a broad spectrum of characteristics, extend metrological possibilities of infrared cameras and provide a combination of new powerful tools for thermal characterization and non destructive evaluation. However, this new dynamic has also brought numerous difficulties that must be overcome, such as high volume noisy data processing and low sensitivity to estimated parameters of such data. This requires revisiting the existing methods of signal processing, adopting new sophisticated mathematical tools for data compression and processing of relevant information.New strategies consist in using orthogonal transforms of the signal as a prior data compression tools, which allow noise reduction and control over it. Correlation analysis, based on the local cerrelation study between partial derivatives of the experimental signal, completes these new strategies. A theoretical analogy in Fourier space has been performed in order to better understand the «physical» meaning of modal approaches.The response to the instantaneous point source of heat, has been revisited both numerically and experimentally. By using separable temperature fields, a new inversion technique based on a double singular value decomposition of experimental signal has been introduced. In comparison with previous methods, it takes into account two or three-dimensional heat diffusion and therefore offers a better exploitation of the spatial content of infrared images. Numerical and experimental examples have allowed us to validate in the first approach our new estimation method of longitudinal thermal diffusivities. Non destructive testing applications based on the new technique have also been introduced.An old issue, which consists in determining the initial temperature field from noisy data, has been approached in a new light. The necessity to know the thermal diffusivities of an orthotropic medium and the need to take into account often three-dimensional heat transfer, are complicated issues. The implementation of the double singular value decomposition allowed us to achieve interesting results according to its ease of use. Indeed, modal approaches are statistical methods based on high volume data processing, supposedly robust as to the measurement noise.

Page generated in 0.0788 seconds