• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 17
  • 7
  • Tagged with
  • 55
  • 55
  • 28
  • 18
  • 14
  • 13
  • 12
  • 12
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Three essays on dynamic models with applications in marketing and finance

Mullick, Shantanu 18 July 2016 (has links)
Cette thèse se compose de trois chapitres qui présentent trois articles indépendants portant sur l’application de modèles dynamiques dans les domaines du marketing et de la finance. Le premier article adopte une approche structurelle des modèles dynamiques pour analyser la relation entre les revenus et l’impact des taxes sur les produits de grignotage (fat taxes). Le deuxième et le troisième article utilisent des modèles dynamiques en forme réduite : nous y mobilisons des modèles hiérarchiques dynamiques qui intègrent un cadre bayésien hiérarchique à un Modèle Linéaire Dynamique. Le second article étudie la tarification dynamique des produits de saison à l’aide d’un modèle hiérarchique dynamique et flexible. Le troisième article analyse le coût du financement des opérations commerciales au cours de la crise financière de 2008-2009 au moyen d’un modèle hiérarchique dynamique. Dans le premier article, nous utilisons un modèle structurel dynamique pour analyser la corrélation entre les revenus et l’impact d’une taxe sur les produits de grignotage (ou fat tax). Les résultats montrent qu’une telle taxe a moins d’impact sur les individus à faibles revenus que sur ceux dont les revenus sont plus élevés, dans la mesure où le premier groupe a davantage tendance à consommer des snacks. Dans le second article, nous élaborons un modèle hiérarchique dynamique et flexible pour estimer la trajectoire des sensibilités-prix afin d’en déduire le tarif dynamique des produits de saison. Nous constatons que les prix optimaux dépendent de la composition de la clientèle du magasin, et que les vendeurs de produits de saisons peuvent en tirer profit lorsqu’ils fixent leurs tarifs. Dans le troisième article, nous utilisons un modèle hiérarchique dynamique pour étudier l’impact de quatre indicateurs macroéconomiques sur le coût du financement des opérations commerciales pendant la crise financière de 2008-2009, ainsi que pendant les périodes qui l’ont précédée et suivie. Nous constatons que l’impact de trois de ces facteurs macroéconomiques (croissance du PIB, échanges commerciaux et inflation) sur le financement commercial est conforme aux prédictions théoriques, tandis que l’impact du quatrième facteur (capitalisation boursière) semble assez surprenant. / This dissertation consists of three chapters that present three standalone essays on the application of dynamic models to marketing and finance. The first essay uses a structural approach to dynamic models to study the role of income on the impact of fat taxes. The second and third essays use a reduced form approach to dynamic models: we use dynamic hierarchical models which incorporate a Hierarchical Bayesian framework in a Dynamic Linear Model. The second essay studies the dynamic pricing of seasonal goods with the help of a flexible dynamic hierarchical model. The third essay studies the cost of trade finance during the financial crisis of 2008-2009 using a dynamic hierarchical model. In the first essay, we use a dynamic structural model to investigate how income interacts with the impact of a “fat tax” (a tax on snack food). We find that the low-income group is less impacted by a “fat tax” compared to the higher income group as they have a higher tendency to consume snack food. In the second essay, we develop a flexible dynamic hierarchical model to estimate the trajectory of price sensitivities which allows us to infer the dynamic prices of seasonal goods. We find that optimal prices depend on the customer composition of the store, and seasonal goods retailers can take advantage of this while setting prices. In the third essay, using a dynamic hierarchical model we examine the impact of four macroeconomic indicators on trade finance costs in and around the financial crisis of 2008-2009. We find the impact of three of these macroeconomic factors (GDP growth, trade and inflation) on trade finance to be in line with the theory, while the impact of the fourth factor (stock market capitalization) on trade finance appears somewhat surprising.
12

Développement d'une méthode d'analyse bayésienne simultanée et multiparamétrique des spectres stellaires et son application aux spectres d'étoiles massives

Mugnes, Jean-Michel 24 April 2018 (has links)
Je présente, dans cette thèse, une nouvelle méthode d’analyse des spectres stellaires, basée sur la statistique bayésienne et l’utilisation de modèles atmosphériques, que j’applique à l’étude d’un échantillon d’étoiles de type B. L’originalité de cette méthode réside dans l’analyse simultanée d’un grand nombre de raies spectrales, mais aussi dans la détermination, également simultanée, d’un nombre important de paramètres stellaires, ainsi que dans le calcul automatique d’incertitudes incluant les variations possibles de chacun des paramètres, la qualité des données et, dans une certaine mesure, les limitations du modèle théorique employé. Les principaux avantages d’une telle méthode sont l’homogénéité de ses résultats, sa robustesse face au bruit, son efficacité même à faible résolution spectrale, sa polyvalence (car elle est applicable à tous types d’étoiles et de modèles), sa simplicité d’utilisation (la méthode est largement automatisée), et sa relative rapidité d’exécution (selon le nombre de paramètres ajustés, l’analyse d’une étoile prend entre 20 secondes et 5 minutes avec un ordinateur moderne). Dans ce document, j’illustre, au travers de nombreux tests théoriques et statistiques, les performances et les capacités, mais aussi les limitations et les biais possibles de cette méthode. La comparaison des résultats que j’obtiens pour mon échantillon d’étoiles B, avec ceux d’autres groupes de recherche, est plutôt satisfaisante et me permet de mettre en avant certains défauts des méthodes traditionnelles d’analyse, mais aussi de relever deux problèmes importants propres au modèle d’atmosphère (TLUSTY) que j’utilise. Puis, avec les paramètres obtenus, je détermine l’âge, la masse et les distances des étoiles de mon échantillon, donne une estimation inédite de l’âge et de la distance de deux amas ouverts, et confirme la différence de vitesses de rotation qui existe entre les étoiles du champ et des amas. La comparaison de mes distances avec les données HIPPARCOS et les mesures d’extinction des deux amas révèle également un accord satisfaisant. Enfin, je propose des pistes d’amélioration de ma méthode et donne un exemple d’utilisation plus générale et plus en adéquation avec les observations multiobjets ou à grande échelle qui se poursuivent à l’heure actuelle. / I present, in this thesis, a new stellar spectra analysis method, based on bayesian statistics and theoretical atmopheric models, which I apply to a sample of B type stars. The originality of this method lies in the simultaneous analysis of a large number of spectral lines combined with the simultaneous determination of a large number of stellar parameters, as well as in the automatic calculation of the uncertainties. These uncertainties are linked to the possible variations of each parameter, the data quality and, to some extent, to the limitations of the theoretical model used. The main advantages of this method are the homogeneity of its results, its robustness to noise, its effectiveness even at low spectral resolution, its versatility (as it is applicable to all types of star), its ease of use (the method is largely automated), and its relatively fast execution (depending on the number of adjusted parameters, the analysis of a star takes between 20 seconds and 5 minutes with a modern computer). I show, through numerous theoretical and statistical tests, the performance and the capabilities, but also the limitations and the possible bias of this method. The comparison of the results I get for my sample of B stars, with the results from other research groups, is quite satisfactory. This comparaison also allows me to highlight some of the shortcomings of traditional analytical methods, and to address two significant issues specific to the atmosphere model that I use (TLUSTY). Next, with the parameters obtained, I determine the age, mass, and distances of my sample stars, give for the first time an estimate of the age and distance of two open clusters, and confirms the difference in rotational velocity between field and cluster stars. The comparison of my distances with the HIPPARCOS data and the published extinctions of the two clusters reveals a satisfactory agreement. Finally, I propose ways to improve my method and provide an example of a more general application in relation with modern large scale or multi-object surveys.
13

Méthode bayésienne de détection de rupture et/ou de tendance pour des données temporelles

Leroux, Alexandre 04 1900 (has links)
Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire. / This thesis aims to identify new change-point detection methods and/or trend in temporal data. After a brief theoretical introduction on splines, several existing change-point detection already in the literature will be presented. Then, new change-point detection methods using splines and Bayesian statistics will be presented. Moreover, in order to understand the method using Bayesian statistics, an introduction to Bayesian theory will be presented. Using simulations, we will make a comparison of the power of all these methods. Still using simulations, an analysis of the new most effective method will be performed. Then, this method will be applied to real data. A brief conclusion will make a summary of this thesis.
14

Impact de la taille de la partition de l'espace-paramètre sur les résultats des tests d'hypothèses multiples sous différentes fonctions de perte

Chassé St-Laurent, Étienne January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
15

Phylogenetic structural modeling of molecular evolution

Rodrigue, Nicolas January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
16

Modélisation et évaluation de la fiabilité des systèmes mécatroniques : application sur système embarqué

Mihalache, Alin Gabriel 17 December 2007 (has links) (PDF)
La mécatronique est définie par l'utilisation simultanée et en étroite symbiose de la mécanique, de l'électronique, de l'informatique,... pour concevoir et produire de produits toujours plus innovants. Cette approche doit s'accompagner aujourd'hui de la garantie de sûreté de fonctionnement (SdF) des systèmes conçus. Or, la fiabilité, élément déterminant de la SdF, est relativement peu maîtrisée dans le développement des systèmes mécatroniques. Nous avons développé une méthodologie globale permettant de modéliser et d'évaluer la fiabilité prévisionnelle, expérimentale et opérationnelle des systèmes mécatroniques. C'est un outil d'aide à la décision dans les différentes phases des cycles de développement et de vie du système mécatronique, en valorisant l'évaluation quantitative de la fiabilité. La fiabilité prévisionnelle est calculée à partir du modèle Réseaux de Petri Stochastiques Déterministes (RdPSD) du système mécatronique, qui prend en considération la modélisation fonctionnelle, la modélisation dysfonctionnelle (à l'aide d'une analyse AMDE, AD,...) et les recueils des données pour chaque composant. Les fiabilités expérimentale et opérationnelle sont déterminées à l'aide de la méthode d'estimation bayésienne BRM qui tient compte des données obtenues lors des essais et issues du REX. Un exemple d'application sur l'antiblocage des roues (ABS) illustre cette méthodologie globale d'estimation de la fiabilité.
17

Approximation particulaire et méthode de Laplace pour le filtrage bayésien

Bui Quang, Paul 01 July 2013 (has links) (PDF)
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité.
18

A la recherche de quasars à grand décalage spectral dans le sondage CFHQSIR / Searching for high-z quasars in the CFHQSIR survey

Pipien, Sarah 30 November 2017 (has links)
J'ai consacré mon travail de thèse à la recherche de quasars à haut redshift dans le sondage Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). L'objectif principal de ce programme est de découvrir des quasars de redshift de l'ordre de z $\sim$ 7 dans les champs larges du CFHTLS (CFHTLS Wide) en utilisant des images réalisées dans le proche infrarouge avec la caméra WIRCam installée au foyer du CFHT. J'ai tout d'abord effectué la calibration photométrique de l'ensemble des données de CFHQSIR. J'ai ensuite étudié la qualité des images ainsi que leur propriété de bruit et leur profondeur. J'ai dans un deuxième temps calculé le nombre de quasars qu'il serait possible de détecter avec CFHQSIR et en ai déduit les contraintes envisageables sur la fonction de luminosité des quasars à z $\sim$ 7. J'ai ensuite procédé à l'identification de candidats quasars parmi les dizaines de milliers de sources que comptent les 130 degrés carrés couvert par CFHQSIR. Des observations de suivi photométriques des candidats ont finalement permis de révéler une cinquantaine d’objets, dont une quinzaine a été sélectionnée pour des observations spectroscopiques au Very Large Telescope (VLT). Celles-ci n’ayant, pour la plupart, pas encore été realisées, la nature exacte de ces sources ne pourra être connue que dans les prochains mois. Pour finir, la dernière partie de ma thèse s’est focalisée sur l’étude de modèles statistiques bayésiens afin de compléter ma méthode de sélection de candidats quasars. Cette étude m'a finalement permis de vérifier que la majorité des objets retenus pour des observations spectroscopiques étaient effectivement les candidats les plus probables. / My PhD work is focused on the search for high-redshift quasars in the Canada France High-z Quasar Survey in the Near Infrared (CFHQSIR). The main scientific objective of this CFHT Large Program is to search for quasars at redshift z $\sim$ 7 with near-infrared images of the CFHTLS Wide fields acquired with the CFHT WIRCam camera. Firstly, I carried out the photometric calibration of the CFHQSIR images. I performed a detailed analysis of the CFHQSIR data by studying their quality, as well as their noise properties and their depths.Secondly, I computed the number of high-redshift quasars that could be detected with CFHQSIR and the corresponding constraints which could be put on the z $\sim$ 7 quasar luminosity function. Then, I proceeded to the identification of quasar candidates among the many thousands of sources in the 130 square degrees covered by CFHQSIR. Photometric follow-up observations of the candidates revealed about fifty objects, of which fifteen were chosen to be spectroscopically observed with the Very Large Telescope (VLT). Given that this spectroscopic follow-up is not yet completed, the exact nature of these sources will only be known in the coming months. To finish, I applied Bayesian model comparison to my sample in order to complete and consolidate my selection procedure. My candidates were finally classified according to their probability to be a high-redshift quasar. I verified that the majority of the most likely candidates were selected for spectroscopic observations.
19

Classification bayésienne non supervisée de données fonctionnelles en présence de covariables / Unsupervised Bayesian clustering of functional data in the presence of covariates

Juery, Damien 18 December 2014 (has links)
Un des objectifs les plus importants en classification non supervisée est d'extraire des groupes de similarité depuis un jeu de données. Avec le développement actuel du phénotypage où les données sont recueillies en temps continu, de plus en plus d'utilisateurs ont besoin d'outils capables de classer des courbes.Le travail présenté dans cette thèse se fonde sur la statistique bayésienne. Plus précisément, nous nous intéressons à la classification bayésienne non supervisée de données fonctionnelles. Les lois a priori bayésiennes non paramétriques permettent la construction de modèles flexibles et robustes.Nous généralisons un modèle de classification (DPM), basé sur le processus de Dirichlet, au cadre fonctionnel. Contrairement aux méthodes actuelles qui utilisent la dimension finie en projetant les courbes dans des bases de fonctions, ou en considérant les courbes aux temps d'observation, la méthode proposée considère les courbes complètes, en dimension infinie. La théorie des espaces de Hilbert à noyau reproduisant (RKHS) nous permet de calculer, en dimension infinie, les densités de probabilité des courbes par rapport à une mesure gaussienne. De la même façon, nous explicitons un calcul de loi a posteriori, sachant les courbes complètes et non seulement les valeurs discrétisées. Nous proposons un algorithme qui généralise l'algorithme "Gibbs sampling with auxiliary parameters" de Neal (2000). L'implémentation numérique requiert le calcul de produits scalaires, qui sont approchés à partir de méthodes numériques. Quelques applications sur données réelles et simulées sont également présentées, puis discutées.En dernier lieu, l'ajout d'une hiérarchie supplémentaire à notre modèle nous permet de pouvoir prendre en compte des covariables fonctionnelles. Nous verrons à cet effet qu'il est possible de définir plusieurs modèles. La méthode algorithmique proposée précédemment est ainsi étendue à chacun de ces nouveaux modèles. Quelques applications sur données simulées sont présentées. / One of the major objectives of unsupervised clustering is to find similarity groups in a dataset. With the current development of phenotyping, in which continuous-time data are collected, more and more users require new efficient tools capable of clustering curves.The work presented in this thesis is based on Bayesian statistics. Specifically, we are interested in unsupervised Bayesian clustering of functional data. Nonparametric Bayesian priors allow the construction of flexible and robust models.We generalize a clustering model (DPM), founded on the Dirichlet process, to the functional framework. Unlike current methods which make use of the finite dimension, either by representing curves as linear combinations of basis functions, or by regarding curves as data points, calculations are hereby carried out on complete curves, in the infinite dimension. The reproducing kernel Hilbert space (RKHS) theory allows us to derive, in the infinite dimension, probability density functions of curves with respect to a gaussian measure. In the same way, we make explicit a posterior distribution, given complete curves and not only data points. We suggest generalizing the algorithm "Gibbs sampling with auxiliary parameters" by Neal (2000). The numerical implementation requires the calculation of inner products, which are approximated from numerical methods. Some case studies on real and simulated data are also presented, then discussed.Finally, the addition of an extra hierarchy in our model allows us to take functional covariates into account. For that purpose, we will show that it is possible to define several models. The previous algorithmic method is therefore extended to each of these models. Some case studies on simulated data are presented.
20

Distribution verticale du carbone dans les sols - Analyse bayésienne des profils des teneurs en carbone et de C14 / Vertical Distribution of carbon in Soils - Bayesian Analysis of carbon content and C14 profiles

Jreich, Rana 28 November 2018 (has links)
Le réchauffement climatique est un problème majeur pour le monde scientifique et les sociétés. La concentration de dioxyde de carbone a augmenté de 45% depuis la période préindustrielle (Harris, 2010), conséquence des activités humaines déséquilibrant le cycle du carbone mondial. Cela se traduit par un réchauffement de la planète avec des impacts dramatiques sur la terre et encore plus pour les populations fragiles.Parmi les solutions d'atténuation, une meilleure utilisation du sol est proposée. En effet, les sols ont la plus grande capacité d'échange de carbone avec l'atmosphère et renferment un stock important de carbone. Une augmentation minime du stock de carbone du sol, les échanges de carbone entre l'atmosphère et le sol plus favorables à la séquestration du carbone dans le sol compenseraient les émissions de carbone provenant de la combustion des combustibles fossiles. Cependant, la dynamique du carbone dans le sol souffre encore de connaissances insuffisantes. Il subsiste alors une grande incertitude quant à la réponse du carbone du sol aux changements climatiques et aux changements d'affectation des terres.Plusieurs modèles mécanistiques ont été développés pour mieux comprendre la dynamique du carbone du sol. Cependant, ces modèles mécanistes ont encore une vue incomplète des processus physiques affectant la matière organique (MO) du sol. Il faudra beaucoup de temps pour obtenir un modèle complet et à jour de la dynamique des sols.Dans ma thèse, nous avons proposé un modèle statistique bayésien visant à décrire la dynamique verticale du carbone du sol. Cela se fait grâce à la modélisation du carbone organique du sol et aussi des données radiocarbone, car elles illustrent le temps de séjour de la MO et donc la dynamique du carbone du sol. Cette approche statistique visait à mieux représenter les incertitudes sur la dynamique du carbone du sol et quantifier les effets des facteurs climatiques et environnementaux sur le carbone des sols superficiels et profonds.Cette méta-analyse a été réalisée sur une base de données de 344 profils, collectés à partir de 87 articles scientifiques et archéologiques et paléoclimatologiques, sous différentes conditions climatiques et environnementales.Un modèle non linéaire hiérarchique avec effets aléatoires a été proposé pour modéliser la dynamique verticale du radiocarbone en fonction de la profondeur. Les techniques de sélection bayésiennes, récemment publiées, ont été appliquées aux couches latentes de notre modèle, elles-mêmes liées par une relation linéaire aux facteurs climatiques et environnementaux. Le Bayesian Group Lasso, le Bayesian Sparse Group Selection(BSGS) et le Bayesian Effect Fusion(BEF) ont été testés pour identifier les principaux prédicteurs explicatifs catégoriels et le Stochastic Search Variable Selection pour identifier les prédicteurs explicatifs numériques influents. Une comparaison de ces techniques bayésiennes a été effectuée sur la base des critères de sélection du modèle bayésien pour spécifier quel modèle a le meilleur pouvoir prédictif En plus de la sélection de prédicteurs catégoriels, le BSGS permet de formuler une probabilité d'inclusion a posteriori pour chaque niveau dans les prédicteurs catégoriels comme type de sol et type d'écosystème. En outre, le BEF a permis de fusionner les types de sol et les types d’écosystèmes qui, selon le BEF, sont supposés avoir les mêmes effets sur nos réponses d’intérêts que la réponse du radiocarbone du sol arable.L'application de ces techniques a permis de prédire, en moyenne et au niveau mondial, la dynamique verticale du radiocarbone dans le cas d'une augmentation de température et de changement d’usage des sols. Par exemple, nous avons étudié l'impact de la déforestation des forêts tropicales et leur remplacement par des terres cultivées sur la dynamique du carbone du sol. La même analyse statistique a également été effectuée pour mieux comprendre la dynamique verticale de la teneur en carbone du sol. / Global warming is a major issue for both the scientific world and societies. The concentration of carbon dioxide has increased by 45% since the pre-industrial era (Harris, 2010) as a consequence of human activities, unbalancing the global carbon cycle. This results in global warming with dramatic impacts on the Earth, particularly for fragile populations.Amongst mitigation solutions, a better use of soil is proposed. Soils have the largest capacity of carbon exchanges with the atmosphere and contain a large stock of carbon. A tiny increase in this soil carbon stock and in carbon exchanges between atmosphere and soil would be more favorable to soil carbon sequestration and would compensate for carbon emissios from burning fossil fuel. However, soil carbon dynamics still suffers from insufficient knowledge. There remains therefore a huge uncertainty about the soil carbon response to climate and land-use changes.While several mechanistic models have been developed to better understand the dynamics of soil carbon, they provide an incomplete view of the physical processes affecting soil organic matter (OM). It will be long before a complete and updated soil dynamics model becomes available.In my thesis, I propose a Bayesian statistical model aiming at describing the vertical dynamics of soil carbon. This is done thanks to the modeling of both soil organic carbon and of radiocarbon data as they illustrate the residence time of organic matter and thus the soil carbon dynamics. The purpose of this statistical approach was to better represent the uncertainties on soil carbon dynamics and to quantify the effects of climatic and environmental factors on both surface and deep soil carbon.This meta-analysis was performed on a database of 344 profiles, collected from 87 soil science papers and the literature in archeology and paleoclimatology, under different climate conditions (temperature, precipitation, etc.) and environments (soil type and type of ecosystem).A hierarchical non-linear model with random effects was proposed to model the vertical dynamics of radiocarbon as a function of depth. Bayesian selection techniques, recently published, were applied to the latent layers of the model, which in turn are linked by a linear relationship to the climatic and environmental factors. The Bayesian Group Lasso with Spike and Slab Prior (BGL-SS), the Bayesian Sparse Group Selection (BSGS) and the Bayesian Effect Fusion model-based clustering (BEF) were tested to identify the significant categorical explanatory predictors (soil type, ecosystem type) and the Stochastic Search Variable Selection method to identify the influential numerical explanatory predictors. A comparison of these Bayesian techniques was made based on the Bayesian model selection criteria (the DIC (Deviance Information Criterion), the Posterior Predictive Check, etc.) to specify which model has the best predictive and adjustment power of the database profiles. In addition to selecting categorical predictors, the BSGS allows the formulation of an a posteriori inclusion probability for each level within the categorical predictors such as soil type and ecosystem type (9 soil types and 6 ecosystem types were considered in our study). Furthermore, the BEF made it possible to merge the types of soil as well as the types of ecosystem, which according to the BEF, are considered to have the same effects on the responses of interest here, such as the response of the topsoil radiocarbon.The application of these techniques allowed us to predict, on average and on a global level, the vertical dynamics of the radiocarbon in the case of a temperature increase of 1, 1.5 and 2 °C, and in the case of a change in vegetation cover. For example, we studied the impact of deforesting tropical forests and replacing them by cultivated land on soil carbon dynamics. The same statistical analysis was also done to better understand the vertical dynamics of soil carbon content.

Page generated in 0.1123 seconds