• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Développement de nouveaux bétons ''accumulateurs d'énergie'' : investigations expérimentale, probabiliste et numérique du comportement thermique / development of new concrete ''energy accumulator'' : experimental, probabilistic and numerical study of its thermal behavior

Drissi, Sarra 20 October 2015 (has links)
A l'heure actuelle, les nouvelles contraintes de la réglementation thermique en vigueur ne cessent de s'adapter au contexte économique global pour lequel la recherche d'une efficacité énergétique dans le bâtiment est devenue incontournable. Pour répondre à ces défis, des Matériaux intelligents à Changement de Phase (MCP) ont fait leur apparition sur le marché de la construction. Grâce à leur capacité de stockage de l'énergie, les MCP sont de plus en plus associés aux matériaux de construction classiques (béton, plâtre, etc.) afin d'améliorer leur inertie thermique et apporter un meilleur confort aux usagers. Pour ce faire, les propriétés thermophysiques intrinsèques aux MCP doivent être suffisamment maitrisées afin de pouvoir contrôler les propriétés du produit composite final. Dans ce contexte, cette thèse est une contribution ayant pour objectif de développer des méthodologies spécifiques pour une meilleure caractérisation des MCP et des béton-MCP. Une panoplie d'approches expérimentales a été présentée pour l'identification des propriétés thermophysiques des MCP et pour identifier l'effet d'incorporation et de l'endommagement de ces matériaux sur les propriétés thermiques et mécaniques de béton. Plusieurs modèles d'homogénéisation ont été utilisés afin de prédire le comportement thermique des bétons-MCP en utilisant les propriétés thermiques moyennées obtenues expérimentalement. Une étude probabiliste paramétrique a été menée afin de prendre en compte les incertitudes liées à la dispersion aléatoire des mesures expérimentales de propriétés thermiques du béton-MCP. Les résultats issus des essais expérimentaux ont été intégrés dans le cadre d'une étude numérique par la Méthode des Volumes finis (MVF) afin d'étudier le mécanisme de transfert de chaleur à travers une paroi en béton-MCP / The thermal policies have been kept to fit the new economic in a global context particularly in terms of buildings energy efficiency. To meet these challenges, different technologies have been used such as the Phase Change Materials (PCMs) which have the ability to store and release energy. PCMs are generally used with conventional building materials in order to improve their thermal inertia and provide better comfort to users. To enhance the properties of the final composite, the PCMs thermo-physical properties must be sufficiently controlled. In this context, this thesis is a contribution aimed to develop specific methodologies for better characterization of PCM and PCM-concrete. Different experimental approaches will be presented for the identification of PCMs thermophysical properties and to identify the effect of the incorporation and the damage of these materials on the thermal and mechanical properties of concrete. A multiscale modelling considering the average of experimental thermal properties was applied to predict the thermal behaviour of PCMs-concrete. A probabilistic study of experimental uncertainties will be also conducted to assess the level of confidence of the impact of PCM on the thermodynamic properties of PCM-concrete. A numerical study was conducted using experimental data to study the heat transfer through a PCM-concrete wall
82

Stratégie multi-échelles de modélisation probabiliste de la fissuration des structures en béton armé / A Multi-Scale Strategy for the Probabilistic Modeling of Reinforced Concrete Structures

Nader, Christian 21 April 2017 (has links)
Il n'existe pas de nos jours une approche modélisatrice satisfaisante de la fissuration des structures en béton de grandes dimensions, capable d'apporter à la fois des informations sur son comportement global et local. Il s'agit pourtant d'un enjeu important pour la maîtrise de la durée de vie des structures, qui s'inscrit pleinement dans le cadre du développement durable. Nous introduisons ainsi une nouvelle approche pour modéliser le processus de fissuration dans les grandes structures en béton armé, comme les barrages ou les centrales nucléaires. Pour ces types de structures, il n'est pas raisonnable, en terme de temps de calcul, de modéliser explicitement les armatures et l'interface acier-béton. Néanmoins, l'accès aux données sur la fissuration est impératif pour les problèmes d'analyse structurelle et de diffusion. Nous avons donc développé un modèle de fissuration macroscopique probabiliste basé sur une stratégie de simulation multi-échelles afin d'obtenir de linformation sur la fissuration dans la structure, sans avoir besoin d'utiliser des approches locales. La stratégie est une sorte de processus multi-étapes qui reprend toute la modélisation de la structure dans le cadre de la méthode des éléments finis, du maillage, à la création de modèles et l'identification des paramètres. Le coeur de la stratégie est inspiré des algorithmes de régression (apprentissage supervisé): les données à l'échelle locale | base de données d'apprentissage associées à la connaissance pratique du problème mécanique | aident à formuler le modèle macroscopique. L'identification des paramètres du modèle macroscopique probabiliste dépend du problème traité car elle contient des informations sur le comportement local, obtenues en avance à l'aide de l'expérimentation numérique. Cette information est ensuite projetée à l'échelle des éléments finis macroscopiques par analyse inverse. L'expérimentation numérique est réalisé avec un modèle validé de fissuration du béton et d'un modèle d'interface acier-béton, ce qui permet une description détaillée des processus de fissuration. Bien que la phase d'identification puisse ^etre relativement longue, le calcul structurel est ainsi très efficace en terme de temps de calcul, conduisant à une réduction importante du temps de calcul global, sans perte d'information / précision sur résultats à l'èchelle macroscopique / No modeling approach exists nowadays that can provide reliable information about the cracking process in large/complex reinforced concrete structures. However, this is an important issue for controlling the lifespan of structures, which is at the heart of the principal of sustainable development. In this work we introduce a new approach to model the cracking processes in large reinforced concrete structures, like dams or nuclear power plants. For these types of structures it is unreasonable, due to calculation time, to explicitly model the rebars and the steel-concrete bond. Nevertheless, access to data about the cracking process is imperative for structural analysis and diffusion problems. So in order to draw the information about cracking in the structure, without resorting to the use of local approaches, we developed a probabilistic macroscopic cracking model based on a multi-scale simulation strategy. The strategy is a sort of a multi-steps process that takes over the whole modelization of the structure in the framework of the finite element method, from meshing, to model creation, and parameter identification. The heart of the strategy is inspired from regression (supervised learning) algorithms: data on the local scale | the training data coupled with working knowledge of the mechanical problem | would shape the macroscopic model. The probabilistic macroscopic model's identification is case-specific because it holds information about the local behavior, obtained in advance via numerical experimentation. This information is then projected to the macroscopic finite element scale via inverse analysis. Numerical experiments are performed using a validated cracking model for concrete and a bond model for the steel-concrete interface, allowing for a fine description of the cracking processes. Although the identification phase can be relatively time-consuming, the structural simulation is as a result, very time-efficient, leading to a sensitive reduction of the overall computational time, with no loss in information/accuracy of results on the macroscopic scale
83

Prise en compte de la variabilité dans les calculs par éléments finis des structures composites en régime statique ou vibratoire / Variability of composite structures modeled by finite elements in static or vibratory behavior

Yin, Qi 03 November 2016 (has links)
La fabrication des structures composites conduit à une variabilité élevée de ses paramètres mécaniques. La thèse a comme objectif global de développer des méthodes économiques et robustes pour étudier la variabilité de la réponse statique ou dynamique des structures composites modélisées par éléments finis, prenant en compte les propriétés matériaux (modules d'élasticité, coefficients de Poisson, masses volumiques...) et physiques (épaisseurs et orientations des fibres) incertaines. Deux méthodes stochastiques : Certain Generalized Stresses Method (CGSM) et Modal Stability Procedure (MSP), sont développées. La méthode CGSM considère une hypothèse mécanique, les efforts généralisés sont supposés indépendants des paramètres incertains. Elle permet d'évaluer la variabilité de la réponse statique. La méthode MSP, proposée pour étudier la variabilité d'une structure en dynamique, est basée sur l'hypothèse considérant que les modes propres sont peu sensibles aux paramètres incertains. Les hypothèses mécaniques et une unique analyse par éléments finis permettent de construire un méta-modèle exploité dans une simulation de Monte Carlo. Le coût de calcul de ces méthodes stochastiques est donc réduit considérablement. De plus, elles présentent les avantages de ne pas limiter le nombre de paramètres incertains ou le niveau de variabilité d'entrée, et d'être compatibles avec tout code éléments finis standard. Quatre exemples académiques de plaque et coque composite sont traités avec la méthode CGSM, deux exemples académiques de plaque composite carrée et un exemple de plaque raidie sont traités avec la méthode MSP. La variabilité de la réponse statique (déplacement et critère de rupture) et dynamique (fréquence propre), soit la moyenne, l'écart-type, le coefficient de variation et la distribution, est évaluée. Les résultats statistiques obtenus par les méthodes proposées sont comparés avec ceux obtenus par une simulation de Monte Carlo directe, considérée comme la méthode de référence. La comparaison montre que les méthodes développées fournissent des résultats de bonne qualité et qu'elles sont très performantes en temps de calcul. Un indicateur d'erreur est également proposé, permettant de donner une estimation du niveau d'erreur des résultats obtenus par les méthodes CGSM ou MSP par rapport à la méthode de référence, sans réaliser un grand nombre d'analyses par éléments finis. / The manufacture of composite structures leads to a high variability of mechanical parameters. The objective of this work is to develop economic and robust methods to study the variability of the static or dynamic response of composite structures modeled by finite elements, taking into account uncertain material (elastic moduli, Poisson's ratios, densities... ) and physical (thicknesses and fiber orientations) properties. Two methods are developed: the Certain Generalized Stresses Method (CGSM) and the Modal Stability Procedure (MSP). The CGSM considers a mechanical assumption, the generalized stresses are assumed to be independant of uncertain parameters. lt allows to evaluate the variability of static response. The MSP, proposed to study the variability of structures in dynamics, is based on the assumption that the modes shapes are insensitive to uncertain parameters. These mechanical assumptions and only one fïnite element analysis allow to construct a metamodel used in a Monte Carlo simulation. As a result, the computational cost is reduced considerably. Moreover, they are not limited by the number of considered parameters or the level of input variability, and are compatible with standard finite element software. Four academic examples of composite plate and shell are treated with the CGSM, while two academic examples of composite square plate and an example of stiffened plate are studied by the MSP. The variability of static response (displacement and failure criterion) and dynamic response (natural frequency), namely mean value, standard deviation, coefficient of variation and distribution, is evaluated. The results obtained by the proposed methods are compared with those obtained by the direct Monte Carlo simulation, considered as the reference method. The comparison shows that the proposed methods provide quite accurate results and highlights their high computational efficiency. An error indicator is also proposed, which allows to provide an estimation of the error level of the results obtained by the CGSM or MSP compared to the reference method, without performing a large number of finite element analyses.
84

Modélisation stochastique, en mécanique des milieux continus, de l'interphase inclusion-matrice à partir de simulations en dynamique moléculaire / Stochastic modeling, in continuum mechanics, of the inclusion-matrix interphase from molecular dynamics simulations

Le, Tien-Thinh 21 October 2015 (has links)
Dans ce travail, nous nous intéressons à la modélisation stochastique continue et à l'identification des propriétés élastiques dans la zone d'interphase présente au voisinage des hétérogénéités dans un nano composite prototypique, composé d'une matrice polymère modèle renforcée par une nano inclusion de silice. Des simulations par dynamique moléculaire (DM) sont tout d'abord conduites afin d'extraire certaines caractéristiques de conformation des chaînes proches de la surface de l'inclusion, ainsi que pour estimer, par des essais mécaniques virtuels, des réalisations du tenseur apparent associé au domaine de simulation. Sur la base des résultats obtenus, un modèle informationnel de champ aléatoire est proposé afin de modéliser les fluctuations spatiales du tenseur des rigidités dans l'interphase. Les paramètres du modèle probabiliste sont alors identifiés par la résolution séquentielle de deux problèmes d'optimisation inverses (l'un déterministe et associé au modèle moyen, l'autre stochastique et lié aux paramètres de dispersion et de corrélation spatiale) impliquant une procédure d'homogénéisation numérique. On montre en particulier que la longueur de corrélation dans la direction radiale est du même ordre de grandeur que l'épaisseur de l'interphase, indiquant ainsi la non-séparation des échelles. Enfin, la prise en compte, par un modèle de matrices aléatoires, du bruit intrinsèque généré par les simulations de DM (dans la procédure de calibration) est discutée / This work is concerned with the stochastic modeling and identification of the elastic properties in the so-called interphase region surrounding the inclusions in nanoreinforced composites. For the sake of illustration, a prototypical nanocomposite made up with a model polymer matrix filled by a silica nanoinclusion is considered. Molecular Dynamics (MD) simulations are first performed in order to get a physical insight about the local conformation of the polymer chains in the vicinity of the inclusion surface. In addition, a virtual mechanical testing procedure is proposed so as to estimate realizations of the apparent stiffness tensor associated with the MD simulation box. An information-theoretic probabilistic representation is then proposed as a surrogate model for mimicking the spatial fluctuations of the elasticity field within the interphase. The hyper parameters defining the aforementioned model are subsequently calibrated by solving, in a sequential manner, two inverse problems involving a computational homogenization scheme. The first problem, related to the mean model, is formulated in a deterministic framework, whereas the second one involves a statistical metric allowing the dispersion parameter and the spatial correlation lengths to be estimated. It is shown in particular that the spatial correlation length in the radial direction is roughly equal to the interphase thickness, hence showing that the scales under consideration are not well separated. The calibration results are finally refined by taking into account, by means of a random matrix model, the MD finite-sampling noise
85

Essays on Political Economy and Cultural Evolution / Essais en économie politique et sur l'évolution des normes culturelles

Seror, Avner 19 March 2018 (has links)
Cette dissertation est composée de trois articles traitant de sujets divers. Le premier développe une théorie sur la transmission de normes culturelles. Le second article traite de l'évolution des doctrines religieuses dans une économie productive. Enfin, le dernier article de cette dissertation est un travail joint avec Thierry Verdier. L'article propose une nouvelle approche des élections impliquant un nombre arbitraire de candidats. Cette problématique de recherche est importante non seulement quant à sa complexité théorique, mais aussi parce qu'elle permet d'étudier relativement simplement la structure des marchés politiques.Le premier article présente une théorie sur le développement de l'enfant et les pratiques parentales. Dans le modèle, un parent cherche à transmettre des normes comportementales à son enfant en lui envoyant des signaux, que l'enfant observe de manière imparfaite. L'enfant peut cependant augmenter la qualité des signaux qu'il reçoit en investissant dans l'acquisition de compétences cognitives.Nous établissons que les styles parentaux autoritaires ou permissifs décroissent l'accumulation de compétences cognitives. De plus, puisque les interactions entre parents et enfants visent à transmettre des normes comportementales, l'enfant développe un capital d'appréciation pour le développement de compétences cognitives.Notre perspective culturelle sur la question du développement cognitif fournit une grille d'interprétation utile pour divers résultats établis dans la littérature empirique sur le développement de l'enfant.Le second article propose une théorie de la prohibition religieuse contre l'usure et l'innovation et ses conséquences sur les activités et les occupations économiques.Comme une interdiction économique provenant de la religion majoritaire est soutenue par un risque d'exclusion sociale de ce groupe culturel, elle a moins d'effets sur les minorités religieuses. Cela implique que seules les minorités religieuses choisissent des activités qui vont à l'encontre de la prohibition à l'équilibre.Dans le dernier article, nous présentons une théorie micro-fondée de la concurrence politique à plusieurs candidats prenant une perspective ``d'organisation industrielle" de la politique. Nous présentons d'abord un modèle de vote aléatoire qui utilise des distributions introduites par le mathématicien français Maurice Fréchet et qui portent son nom. Ces distributions permettent d'exprimer les parts de vote des différents candidats comme des ``contest functions'', ce qui permet d'établir un théorème d'existence et d'unicité d'un équilibre des stratégies politiques dans des élections impliquant un nombre arbitraire de candidats.Le cadre analytique s'avère suffisamment souple pour traiter plusieurs applications sur des thèmes liés à la structure endogène des marchés politiques. Nous montrons en particulier que le degré d'information des électeurs sur les plateformes ainsi que les campagnes médiatiques impliquent un degré de fragmentation politique plus faible. / The first chapter of this dissertation presents a theory of child development and parental rearingpractices. In the model, a benevolent parent seeks to transmit cultural norms to her child, whoacquires cognitive skills and develops a capital of appreciation for adopting behaviors that accordwith these norms. Our cultural perspective on the issue of cognitive development provides aninterpretation grid for various results established in the empirical literature. It also permits to identifythe parental characteristics that are conducive to various parenting styles, to child neglect and tochild maltreatment.The second chapter provides a theory of religious prohibition against usury and innovation and itsconsequences on economic activities and occupations. As an economic prohibition from themajority religion is sustained by a threat of social exclusion from that cultural group, it has lesseffects on religious minorities. It then creates an occupational pattern where only the religiousminorities choose activities that transgress the prohibition. By creating resentment against thereligious minorities, this occupational pattern strengthens the diffusion of the majority religion in thepopulation. An economic prohibition is then instigated by the clerics in the majority religion,because it allows them to consolidate their norms and to increase the scope of their control overpopular masses. This work also demonstrates that an economic prohibition lasts longer whenreligious clerics can legitimize secular rulers and when the competition on the religious market isweaker.In the last chapter, we present a microfounded theory of multi-candidate political competition takingan "industrial organization" perspective of politics. The analytical framework is shown to be exibleenough to address several applications on the topics of special interest politics, coalition formationin the legislature in proportional elections, and redistribution under alternative electoral rules
86

Modélisation du langage à l'aide de pénalités structurées / Modeling language with structured penalties

Nelakanti, Anil Kumar 11 February 2014 (has links)
La modélisation de la langue naturelle est l¿un des défis fondamentaux de l¿intelligence artificielle et de la conception de systèmes interactifs, avec applications dans les systèmes de dialogue, la génération de texte et la traduction automatique. Nous proposons un modèle log-linéaire discriminatif donnant la distribution des mots qui suivent un contexte donné. En raison de la parcimonie des données, nous proposons un terme de pénalité qui code correctement la structure de l¿espace fonctionnel pour éviter le sur-apprentissage et d¿améliorer la généralisation, tout en capturant de manière appropriée les dépendances à long terme. Le résultat est un modèle efficace qui capte suffisamment les dépendances longues sans occasionner une forte augmentation des ressources en espace ou en temps. Dans un modèle log-linéaire, les phases d¿apprentissage et de tests deviennent de plus en plus chères avec un nombre croissant de classes. Le nombre de classes dans un modèle de langue est la taille du vocabulaire, qui est généralement très importante. Une astuce courante consiste à appliquer le modèle en deux étapes: la première étape identifie le cluster le plus probable et la seconde prend le mot le plus probable du cluster choisi. Cette idée peut être généralisée à une hiérarchie de plus grande profondeur avec plusieurs niveaux de regroupement. Cependant, la performance du système de classification hiérarchique qui en résulte dépend du domaine d¿application et de la construction d¿une bonne hiérarchie. Nous étudions différentes stratégies pour construire la hiérarchie des catégories de leurs observations. / Modeling natural language is among fundamental challenges of artificial intelligence and the design of interactive machines, with applications spanning across various domains, such as dialogue systems, text generation and machine translation. We propose a discriminatively trained log-linear model to learn the distribution of words following a given context. Due to data sparsity, it is necessary to appropriately regularize the model using a penalty term. We design a penalty term that properly encodes the structure of the feature space to avoid overfitting and improve generalization while appropriately capturing long range dependencies. Some nice properties of specific structured penalties can be used to reduce the number of parameters required to encode the model. The outcome is an efficient model that suitably captures long dependencies in language without a significant increase in time or space requirements. In a log-linear model, both training and testing become increasingly expensive with growing number of classes. The number of classes in a language model is the size of the vocabulary which is typically very large. A common trick is to cluster classes and apply the model in two-steps; the first step picks the most probable cluster and the second picks the most probable word from the chosen cluster. This idea can be generalized to a hierarchy of larger depth with multiple levels of clustering. However, the performance of the resulting hierarchical classifier depends on the suitability of the clustering to the problem. We study different strategies to build the hierarchy of categories from their observations.
87

L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources / Probabilistic latent component analysis and its adaptation to musical signals : application to automatic music transcription and source separation

Fuentes, Benoît 14 March 2013 (has links)
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens. / Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
88

Distribution verticale du carbone dans les sols - Analyse bayésienne des profils des teneurs en carbone et de C14 / Vertical Distribution of carbon in Soils - Bayesian Analysis of carbon content and C14 profiles

Jreich, Rana 28 November 2018 (has links)
Le réchauffement climatique est un problème majeur pour le monde scientifique et les sociétés. La concentration de dioxyde de carbone a augmenté de 45% depuis la période préindustrielle (Harris, 2010), conséquence des activités humaines déséquilibrant le cycle du carbone mondial. Cela se traduit par un réchauffement de la planète avec des impacts dramatiques sur la terre et encore plus pour les populations fragiles.Parmi les solutions d'atténuation, une meilleure utilisation du sol est proposée. En effet, les sols ont la plus grande capacité d'échange de carbone avec l'atmosphère et renferment un stock important de carbone. Une augmentation minime du stock de carbone du sol, les échanges de carbone entre l'atmosphère et le sol plus favorables à la séquestration du carbone dans le sol compenseraient les émissions de carbone provenant de la combustion des combustibles fossiles. Cependant, la dynamique du carbone dans le sol souffre encore de connaissances insuffisantes. Il subsiste alors une grande incertitude quant à la réponse du carbone du sol aux changements climatiques et aux changements d'affectation des terres.Plusieurs modèles mécanistiques ont été développés pour mieux comprendre la dynamique du carbone du sol. Cependant, ces modèles mécanistes ont encore une vue incomplète des processus physiques affectant la matière organique (MO) du sol. Il faudra beaucoup de temps pour obtenir un modèle complet et à jour de la dynamique des sols.Dans ma thèse, nous avons proposé un modèle statistique bayésien visant à décrire la dynamique verticale du carbone du sol. Cela se fait grâce à la modélisation du carbone organique du sol et aussi des données radiocarbone, car elles illustrent le temps de séjour de la MO et donc la dynamique du carbone du sol. Cette approche statistique visait à mieux représenter les incertitudes sur la dynamique du carbone du sol et quantifier les effets des facteurs climatiques et environnementaux sur le carbone des sols superficiels et profonds.Cette méta-analyse a été réalisée sur une base de données de 344 profils, collectés à partir de 87 articles scientifiques et archéologiques et paléoclimatologiques, sous différentes conditions climatiques et environnementales.Un modèle non linéaire hiérarchique avec effets aléatoires a été proposé pour modéliser la dynamique verticale du radiocarbone en fonction de la profondeur. Les techniques de sélection bayésiennes, récemment publiées, ont été appliquées aux couches latentes de notre modèle, elles-mêmes liées par une relation linéaire aux facteurs climatiques et environnementaux. Le Bayesian Group Lasso, le Bayesian Sparse Group Selection(BSGS) et le Bayesian Effect Fusion(BEF) ont été testés pour identifier les principaux prédicteurs explicatifs catégoriels et le Stochastic Search Variable Selection pour identifier les prédicteurs explicatifs numériques influents. Une comparaison de ces techniques bayésiennes a été effectuée sur la base des critères de sélection du modèle bayésien pour spécifier quel modèle a le meilleur pouvoir prédictif En plus de la sélection de prédicteurs catégoriels, le BSGS permet de formuler une probabilité d'inclusion a posteriori pour chaque niveau dans les prédicteurs catégoriels comme type de sol et type d'écosystème. En outre, le BEF a permis de fusionner les types de sol et les types d’écosystèmes qui, selon le BEF, sont supposés avoir les mêmes effets sur nos réponses d’intérêts que la réponse du radiocarbone du sol arable.L'application de ces techniques a permis de prédire, en moyenne et au niveau mondial, la dynamique verticale du radiocarbone dans le cas d'une augmentation de température et de changement d’usage des sols. Par exemple, nous avons étudié l'impact de la déforestation des forêts tropicales et leur remplacement par des terres cultivées sur la dynamique du carbone du sol. La même analyse statistique a également été effectuée pour mieux comprendre la dynamique verticale de la teneur en carbone du sol. / Global warming is a major issue for both the scientific world and societies. The concentration of carbon dioxide has increased by 45% since the pre-industrial era (Harris, 2010) as a consequence of human activities, unbalancing the global carbon cycle. This results in global warming with dramatic impacts on the Earth, particularly for fragile populations.Amongst mitigation solutions, a better use of soil is proposed. Soils have the largest capacity of carbon exchanges with the atmosphere and contain a large stock of carbon. A tiny increase in this soil carbon stock and in carbon exchanges between atmosphere and soil would be more favorable to soil carbon sequestration and would compensate for carbon emissios from burning fossil fuel. However, soil carbon dynamics still suffers from insufficient knowledge. There remains therefore a huge uncertainty about the soil carbon response to climate and land-use changes.While several mechanistic models have been developed to better understand the dynamics of soil carbon, they provide an incomplete view of the physical processes affecting soil organic matter (OM). It will be long before a complete and updated soil dynamics model becomes available.In my thesis, I propose a Bayesian statistical model aiming at describing the vertical dynamics of soil carbon. This is done thanks to the modeling of both soil organic carbon and of radiocarbon data as they illustrate the residence time of organic matter and thus the soil carbon dynamics. The purpose of this statistical approach was to better represent the uncertainties on soil carbon dynamics and to quantify the effects of climatic and environmental factors on both surface and deep soil carbon.This meta-analysis was performed on a database of 344 profiles, collected from 87 soil science papers and the literature in archeology and paleoclimatology, under different climate conditions (temperature, precipitation, etc.) and environments (soil type and type of ecosystem).A hierarchical non-linear model with random effects was proposed to model the vertical dynamics of radiocarbon as a function of depth. Bayesian selection techniques, recently published, were applied to the latent layers of the model, which in turn are linked by a linear relationship to the climatic and environmental factors. The Bayesian Group Lasso with Spike and Slab Prior (BGL-SS), the Bayesian Sparse Group Selection (BSGS) and the Bayesian Effect Fusion model-based clustering (BEF) were tested to identify the significant categorical explanatory predictors (soil type, ecosystem type) and the Stochastic Search Variable Selection method to identify the influential numerical explanatory predictors. A comparison of these Bayesian techniques was made based on the Bayesian model selection criteria (the DIC (Deviance Information Criterion), the Posterior Predictive Check, etc.) to specify which model has the best predictive and adjustment power of the database profiles. In addition to selecting categorical predictors, the BSGS allows the formulation of an a posteriori inclusion probability for each level within the categorical predictors such as soil type and ecosystem type (9 soil types and 6 ecosystem types were considered in our study). Furthermore, the BEF made it possible to merge the types of soil as well as the types of ecosystem, which according to the BEF, are considered to have the same effects on the responses of interest here, such as the response of the topsoil radiocarbon.The application of these techniques allowed us to predict, on average and on a global level, the vertical dynamics of the radiocarbon in the case of a temperature increase of 1, 1.5 and 2 °C, and in the case of a change in vegetation cover. For example, we studied the impact of deforesting tropical forests and replacing them by cultivated land on soil carbon dynamics. The same statistical analysis was also done to better understand the vertical dynamics of soil carbon content.
89

Prise en compte des méconnaissances dans la quantification de la nocivité des fissures en fatigue / Integration of uncertainties in fatigue cracks hazardness quantification.

Boutet, Pierre 15 December 2015 (has links)
Dans les installations industrielles, des inspections régulières sont planifiées pour évaluer l’état de santé interne des composants. Si des fissures sont révélées, il est souhaitable de savoir si l’exploitation de la structure peut se poursuivre ou si un régime de fonctionnement dégradé pourrait être envisagé. En se basant sur la mécanique élastique linéaire de la rupture, les travaux présentés traitent donc dans le cas de composants fissurés de la dispersion de durée de vie résiduelle relative aux incertitudes sur les paramètres du modèle de prévision. La longueur de fissure initiale, les propriétés du matériau ainsi que les paramètres d’entrée de la loi de Paris ont été considérés comme des variables aléatoires, dont les distributions ont été déterminées expérimentalement puis ajustées par des lois statistiques adéquates. Des contrôles ultrasonores par mesure du temps de vol de l’onde diffractée – Time Of Flight Diffraction (TOFD) en anglais – et des mesures de champs obtenues par corrélation d’images numériques ont été utilisés pour quantifier la propagation d’une fissure dans une éprouvette à défaut soumise à des sollicitations cycliques uniaxiales. Les données expérimentales recueillies ont été utilisées pour initialiser les calculs et valider les résultats numériques. Les distributions de taille de fissure obtenue après un nombre donné de cycles de sollicitation et de nombre de cycles de sollicitation conduisant à une taille définie de fissure ont été obtenues par une méthode de Monte-Carlo appliquée au modèle de prévision. L’ajustement de ces distributions par de lois log-normales a fourni des outils analytiques d’estimation probabiliste de propagation de fissure. Cela a notamment permis la réalisation de cartographies de risques et l’évaluation de l’évolution de la fiabilité du composant étudié. Enfin, les effets d’une actualisation de la connaissance de la longueur de fissure au cours de la vie de ce composant en termes d’incertitude de prévision et d’extension de durée de vie résiduelle prévisionnelle ont été étudiés. En particulier, afin de limiter le coût des campagnes de contrôle non destructifs dans le cas industriel, une stratégie d’optimisation de l’actualisation de cette connaissance basée sur l’étude de fiabilité a été proposée. / In industrial plants, regular inspections are planned to assess the internal state of installations. If some cracks are revealed, it is desirable to know whether the structure can still be used or if a degraded mode of operation should be considered. Starting from a linear elastic fracture mechanics model, the work presented studied the scatter of the remaining life of such cracked parts due to the uncertainties on the parameters of the prediction model. Initial crack size, material properties and input parameters of Paris’ law have been considered as random variables and their distributions have been experimentally identified and fitted with convenient statistical laws. Time Of Flight Diffraction (TOFD) and field measurement technique based on Digital Image Correlation (DIC) were used to monitor the crack propagation initiated from a notch introduced in specimen submitted to uniaxial cyclic loading. Experimental crack length results were used to initiate computations and as a mean to validate numerical results. Both the crack lengths distributions resulting from the application of loading cycles and the distribution of the number of cycles leading to a given crack length were obtained from a Monte-Carlo method applied to the prediction model. The fit of these distributions with log-normal laws provided analytical tools to assess probabilistic crack propagation. It allowed for risk mapping and for the evaluation of the studied component’s reliability evolution. Last, the effects of an actualisation of crack length knowledge along the life of this component in terms of assessment uncertainty and predicted residual life extension has been studied. Especially, to limit the cost of non-destructive techniques inspection in industrial cases, a reliability-based strategy has been proposed for the optimisation of the crack knowledge actualisation.
90

Analyse des tolérances des systèmes complexes – Modélisation des imperfections de fabrication pour une analyse réaliste et robuste du comportement des systèmes / Tolerance analysis of complex mechanisms - Manufacturing imperfections modeling for a realistic and robust geometrical behavior modeling of the mechanisms

Goka, Edoh 12 June 2019 (has links)
L’analyse des tolérances a pour but de vérifier lors de la phase de conception, l’impact des tolérances individuelles sur l’assemblage et la fonctionnalité d’un système mécanique. Les produits fabriqués possèdent différents types de contacts et sont sujets à des imperfections de fabrication qui sont sources de défaillances d’assemblage et fonctionnelle. Les méthodes généralement proposées pour l’analyse des tolérances ne considèrent pas les défauts de forme. L’objectif des travaux de thèse est de proposer une nouvelle procédure d’analyse des tolérances permettant de prendre en compte les défauts de forme et le comportement géométriques des différents types de contacts. Ainsi, dans un premier temps, une méthode de modélisation des défauts de forme est proposée afin de rendre les simulations plus réalistes. Dans un second temps, ces défauts de forme sont intégrés dans la modélisation du comportement géométrique d’un système mécanique hyperstatique, en considérant les différents types de contacts. En effet, le comportement géométrique des différents types de contacts est différent dès que les défauts de forme sont considérés. La simulation de Monte Carlo associée à une technique d’optimisation est la méthode choisie afin de réaliser l’analyse des tolérances. Cependant, cette méthode est très couteuse en temps de calcul. Pour pallier ce problème, une approche utilisant des modèles probabilistes obtenus grâce à l’estimation par noyaux, est proposée. Cette nouvelle approche permet de réduire les temps de calcul de manière significative. / Tolerance analysis aims toward the verification of the impact of individual tolerances on the assembly and functional requirements of a mechanical system. The manufactured products have several types of contacts and their geometry is imperfect, which may lead to non-functioning and non-assembly. Traditional methods for tolerance analysis do not consider the form defects. This thesis aims to propose a new procedure for tolerance analysis which considers the form defects and the different types of contact in its geometrical behavior modeling. A method is firstly proposed to model the form defects to make realistic analysis. Thereafter, form defects are integrated in the geometrical behavior modeling of a mechanical system and by considering also the different types of contacts. Indeed, these different contacts behave differently once the imperfections are considered. The Monte Carlo simulation coupled with an optimization technique is chosen as the method to perform the tolerance analysis. Nonetheless, this method is subject to excessive numerical efforts. To overcome this problem, probabilistic models using the Kernel Density Estimation method are proposed.

Page generated in 0.088 seconds