• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 8
  • 2
  • Tagged with
  • 27
  • 27
  • 12
  • 11
  • 9
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Distribution verticale du carbone dans les sols - Analyse bayésienne des profils des teneurs en carbone et de C14 / Vertical Distribution of carbon in Soils - Bayesian Analysis of carbon content and C14 profiles

Jreich, Rana 28 November 2018 (has links)
Le réchauffement climatique est un problème majeur pour le monde scientifique et les sociétés. La concentration de dioxyde de carbone a augmenté de 45% depuis la période préindustrielle (Harris, 2010), conséquence des activités humaines déséquilibrant le cycle du carbone mondial. Cela se traduit par un réchauffement de la planète avec des impacts dramatiques sur la terre et encore plus pour les populations fragiles.Parmi les solutions d'atténuation, une meilleure utilisation du sol est proposée. En effet, les sols ont la plus grande capacité d'échange de carbone avec l'atmosphère et renferment un stock important de carbone. Une augmentation minime du stock de carbone du sol, les échanges de carbone entre l'atmosphère et le sol plus favorables à la séquestration du carbone dans le sol compenseraient les émissions de carbone provenant de la combustion des combustibles fossiles. Cependant, la dynamique du carbone dans le sol souffre encore de connaissances insuffisantes. Il subsiste alors une grande incertitude quant à la réponse du carbone du sol aux changements climatiques et aux changements d'affectation des terres.Plusieurs modèles mécanistiques ont été développés pour mieux comprendre la dynamique du carbone du sol. Cependant, ces modèles mécanistes ont encore une vue incomplète des processus physiques affectant la matière organique (MO) du sol. Il faudra beaucoup de temps pour obtenir un modèle complet et à jour de la dynamique des sols.Dans ma thèse, nous avons proposé un modèle statistique bayésien visant à décrire la dynamique verticale du carbone du sol. Cela se fait grâce à la modélisation du carbone organique du sol et aussi des données radiocarbone, car elles illustrent le temps de séjour de la MO et donc la dynamique du carbone du sol. Cette approche statistique visait à mieux représenter les incertitudes sur la dynamique du carbone du sol et quantifier les effets des facteurs climatiques et environnementaux sur le carbone des sols superficiels et profonds.Cette méta-analyse a été réalisée sur une base de données de 344 profils, collectés à partir de 87 articles scientifiques et archéologiques et paléoclimatologiques, sous différentes conditions climatiques et environnementales.Un modèle non linéaire hiérarchique avec effets aléatoires a été proposé pour modéliser la dynamique verticale du radiocarbone en fonction de la profondeur. Les techniques de sélection bayésiennes, récemment publiées, ont été appliquées aux couches latentes de notre modèle, elles-mêmes liées par une relation linéaire aux facteurs climatiques et environnementaux. Le Bayesian Group Lasso, le Bayesian Sparse Group Selection(BSGS) et le Bayesian Effect Fusion(BEF) ont été testés pour identifier les principaux prédicteurs explicatifs catégoriels et le Stochastic Search Variable Selection pour identifier les prédicteurs explicatifs numériques influents. Une comparaison de ces techniques bayésiennes a été effectuée sur la base des critères de sélection du modèle bayésien pour spécifier quel modèle a le meilleur pouvoir prédictif En plus de la sélection de prédicteurs catégoriels, le BSGS permet de formuler une probabilité d'inclusion a posteriori pour chaque niveau dans les prédicteurs catégoriels comme type de sol et type d'écosystème. En outre, le BEF a permis de fusionner les types de sol et les types d’écosystèmes qui, selon le BEF, sont supposés avoir les mêmes effets sur nos réponses d’intérêts que la réponse du radiocarbone du sol arable.L'application de ces techniques a permis de prédire, en moyenne et au niveau mondial, la dynamique verticale du radiocarbone dans le cas d'une augmentation de température et de changement d’usage des sols. Par exemple, nous avons étudié l'impact de la déforestation des forêts tropicales et leur remplacement par des terres cultivées sur la dynamique du carbone du sol. La même analyse statistique a également été effectuée pour mieux comprendre la dynamique verticale de la teneur en carbone du sol. / Global warming is a major issue for both the scientific world and societies. The concentration of carbon dioxide has increased by 45% since the pre-industrial era (Harris, 2010) as a consequence of human activities, unbalancing the global carbon cycle. This results in global warming with dramatic impacts on the Earth, particularly for fragile populations.Amongst mitigation solutions, a better use of soil is proposed. Soils have the largest capacity of carbon exchanges with the atmosphere and contain a large stock of carbon. A tiny increase in this soil carbon stock and in carbon exchanges between atmosphere and soil would be more favorable to soil carbon sequestration and would compensate for carbon emissios from burning fossil fuel. However, soil carbon dynamics still suffers from insufficient knowledge. There remains therefore a huge uncertainty about the soil carbon response to climate and land-use changes.While several mechanistic models have been developed to better understand the dynamics of soil carbon, they provide an incomplete view of the physical processes affecting soil organic matter (OM). It will be long before a complete and updated soil dynamics model becomes available.In my thesis, I propose a Bayesian statistical model aiming at describing the vertical dynamics of soil carbon. This is done thanks to the modeling of both soil organic carbon and of radiocarbon data as they illustrate the residence time of organic matter and thus the soil carbon dynamics. The purpose of this statistical approach was to better represent the uncertainties on soil carbon dynamics and to quantify the effects of climatic and environmental factors on both surface and deep soil carbon.This meta-analysis was performed on a database of 344 profiles, collected from 87 soil science papers and the literature in archeology and paleoclimatology, under different climate conditions (temperature, precipitation, etc.) and environments (soil type and type of ecosystem).A hierarchical non-linear model with random effects was proposed to model the vertical dynamics of radiocarbon as a function of depth. Bayesian selection techniques, recently published, were applied to the latent layers of the model, which in turn are linked by a linear relationship to the climatic and environmental factors. The Bayesian Group Lasso with Spike and Slab Prior (BGL-SS), the Bayesian Sparse Group Selection (BSGS) and the Bayesian Effect Fusion model-based clustering (BEF) were tested to identify the significant categorical explanatory predictors (soil type, ecosystem type) and the Stochastic Search Variable Selection method to identify the influential numerical explanatory predictors. A comparison of these Bayesian techniques was made based on the Bayesian model selection criteria (the DIC (Deviance Information Criterion), the Posterior Predictive Check, etc.) to specify which model has the best predictive and adjustment power of the database profiles. In addition to selecting categorical predictors, the BSGS allows the formulation of an a posteriori inclusion probability for each level within the categorical predictors such as soil type and ecosystem type (9 soil types and 6 ecosystem types were considered in our study). Furthermore, the BEF made it possible to merge the types of soil as well as the types of ecosystem, which according to the BEF, are considered to have the same effects on the responses of interest here, such as the response of the topsoil radiocarbon.The application of these techniques allowed us to predict, on average and on a global level, the vertical dynamics of the radiocarbon in the case of a temperature increase of 1, 1.5 and 2 °C, and in the case of a change in vegetation cover. For example, we studied the impact of deforesting tropical forests and replacing them by cultivated land on soil carbon dynamics. The same statistical analysis was also done to better understand the vertical dynamics of soil carbon content.
12

Etude de la fatigue des aciers laminés à partir de l'auto-échauffement sous sollicitation cyclique : essais, observations, modélisation et influence d'une pré-déformation plastique

Munier, Rémi 03 February 2012 (has links) (PDF)
La détermination des propriétés en fatigue à grand nombre de cycles des aciers laminés destinés à l'industrie automobile est un processus coûteux en temps et en quantité de matière : 25 éprouvettes et presque un mois d'essais sont nécessaires à l'obtention d'une courbe de fatigue standard. Dans l'objectif de réduire ces temps de caractérisation, une méthode rapide, basée sur l'auto-échauffement de la matière sous sollicitation cyclique est mise en place sur un très grand nombre de nuances. Les mesures d'auto-échauffement mettent en évidence la présence de deux régimes dissipatifs distincts, un pour les plus faibles amplitudes de chargement cyclique et un pour les plus hautes. Un modèle probabiliste à deux échelles est ensuite développé, dont le but est de prévoir le comportement en fatigue à grand nombre de cycles à partir des mesures d'auto-échauffement. Il est composé d'une matrice au comportement élasto-plastique et d'une population d'inclusions possédant un second comportement élasto-plastique dont le seuil d'activation est aléatoire. Les deux régimes d'auto-échauffement peuvent ainsi être décrits fidèlement. En utilisant l'hypothèse du maillon le plus faible et un critère énergétique, une prévision du comportement en fatigue est réalisée. Trois jours seulement sont alors requis pour obtenir une courbe de fatigue complète. La pertinence de l'approche est validée en comparant avec des courbes de fatigue standards. Puis, des observations par microscopie optique, par microscopie à force atomique et par EBSD sont entreprises sur un acier micro-allié. L'objectif est double : en premier lieu, mieux comprendre les phénomènes qui se produisent sous sollicitation cyclique conduisant à l'obtention des deux régimes d'auto-échauffement ; en second lieu, justifier la pertinence des ingrédients introduits dans la modélisation. Dans une seconde grande partie, il est question de l'influence d'une pré-déformation plastique sur l'évolution des propriétés en fatigue. En effet, les composants automobiles obtenus à partir de tôles en acier laminé subissent diverses opérations de mise en forme, conduisant déformer plastiquement la matière. Ces modifications de l'état de la matière engendrent des évolutions des propriétés en fatigue qui ne sont cependant pas prises en compte dans le dimensionnement actuel des pièces (non déterminées par la méthode standard car trop coûteux en temps). La rapidité de la méthode développée autorise à caractériser ces évolutions. A partir des modifications des propriétés à l'auto-échauffement après divers modes de pré-déformation plastique (traction, traction plane, cisaillement) et en étudiant diverses directions de sollicitation, il est possible de prévoir l'évolution des propriétés en fatigue associée pour de larges gammes de pré-déformations. La qualité des prévisions est validée en comparant avec des courbes de fatigue standards.
13

Conception et application d'un modèle de l'information routière et ses effets sur le trafic / Modelling traveler information and its effects on traffic

Nguyen, Thai Phu 29 June 2010 (has links)
Les conditions de circulation sur un réseau routier subissent souvent de la congestion. Selon ses sources, la congestion routière peut être classée en deux catégories : la congestion récurrente déterminée par les lois de trafic et la congestion non-récurrente due aux incidents, accidents ou autres aléas sur la route. Grâce à l'avancement des technologies, notamment en informatique, communication et techniques de traitement des données, l'exploitant est devenu capable de détecter les perturbations, de mesurer les effets et même d'anticiper l'état du trafic afin de mieux adapter ses actions d'exploitation. L'information dynamique concernant les conditions de trafic permet aux usagers de réduire l'inconfort et d'effectuer leur choix d'itinéraire de manière plus raisonnable. Pour l'exploitant, le service d'information aux usagers peut servir à la gestion du trafic. Nous avons étudié la contribution potentielle de l'information dynamique au profit individuel des usagers et à la performance collective du système en prenant en compte : i) la congestion récurrente et non-récurrente ; ii) des différents comportements de choix d'itinéraire en fonction de l'accessibilité à l'information ; iii) d'autres actions de gestion du trafic menées par l'exploitant. Un modèle théorique avec une application analytique sur un réseau élémentaire de deux routes parallèles, une paire origine-destination et deux classes d'usagers respectivement informée ou non-informée nous a permis de retirer de nombreuses indications : i) la diffusion excessive de l'information avec un contenu « neutre » dégrade à la fois le profit individuel et la performance du système ; ii) l'information dynamique avec certain contenu « coopératif » peut contribuer l'optimisation du système sans causer le problème d'acceptabilité ; iii) l'information dynamique et d'autres mesures de gestion dynamique s'interagissent de manière complémentaire à l'optimisation du trafic / Traffic conditions on a road network often suffer from congestion. According to sources, the traffic congestion can be classified into two categories : recurrent congestion determined by the physic laws of traffic and non-recurrent congestion due to incidents, accidents or other hazards on the road. Thanks to the advancement of technologies, including computers, communications and data processing, the traffic operator is now able to detect disturbances, to measure the effects and even to anticipate traffic conditions to better match traffic management activities. Dynamic information on traffic conditions enables users to reduce discomfort and make their route choice decision more reasonable. For the operator, the service user information may be used as a traffic management tool. We investigated the potential contribution of dynamic traffic information for the benefit of individual users and system performance by taking into account : i) recurring congestion and non-recurring ; ii) different route choice behaviours based on accessibility to information service ; iii) other traffic management actions taken by the traffic operator. A theoretical model with an analytical application on a simple two-parallel-road network, an origin-destination pairs and two user classes, respectively-informed or non-informed has given many conclusions : i) an excessive distribution of traffic information with a « neutral » content damages both the individual profit and system performance ; ii) traffic information with some « cooperative » content may help optimize the system performance without causing acceptability problem ; and iii) dynamic information and other traffic management tools interplay in a complementary manner to optimize the traffic
14

Développement des méthodes numériques et expérimentales pour la certification vibratoire des disques aubagés monoblocs / Development of the numerical and experimental methods for dynamic certification of integrally bladed disks

Cazenove, Jean de 25 June 2014 (has links)
Les roues aubagées de turbomachines sont soumises en fonctionnement `a des sollicitations statiqueset dynamiques, qui peuvent conduire `a des situations de fatigue vibratoire pour des excitationsau voisinage des fréquences de résonance. Ce probléme est aggravé par le désaccordage involontaire,auquel sont sujets les ensembles aubagés notamment du fait des dispersions de fabrication.L’objectif de ce travail de recherche est de proposer une stratégie mixte numérique et expérimentalepermettant de caractériser le comportement dynamique d’une roue d’essai au sein des statistiquesdécrivant une flotte simulée de moteurs en service, en vue de la certification vibratoire. Un modèle numérique fidèle basée sur l’acquisition optique d’une roue expérimentale a été développé; une série d’essais en laboratoire a permis de vérifier sa représentativité. L’exploitation de mesures réalisées en configuration moteur a montré une bonne cohérence globale des niveaux d’amplitude prédits à l’aidedu modèle fidèle. Enfin, la simulation du comportement d’une population de roues désaccordées à l’aide d’une approche probabiliste non-Paramétrique a permis de positionner l’amplitude de réponse maximale rencontrée sur la pièce d’essai par rapport à la valeur théorique obtenue par simulation. La stratégie proposée permet une prédiction des niveaux vibratoires maximaux pour une flotte de rouesen service. / Under operating conditions, turbomachinery blisks are subject to static and dynamic loads which mayresult in High-Cycle Fatigue situations when excited at the neighbourhood of resonant frequencies.Random mistuning, which affects blisks due to machining deviations, turns this issue even morecritical. The objective of the current study is to introduce a numerical-Experimental strategy allowingthe dynamic characterization of an experimental bladed disk with regard to the statistics representingthe simulated behaviour for a population of operating blisks. A high-Fidelity numerical model basedon the optical acquisition of an experimental blisk has been set up. Test series performed in labconditions allowed to verify its coherence. The comparison of the response amplitudes measuredunder operating conditions to the model predictions revealed an acceptable matching between testand simulation data. Finally, a non-Parametric probabilistic approach has been used to predict thetheoretical maximal amplification factor. The maximum amplification factor obtained by means ofsimulation was compared to the amplification factor of the test specimen. The strategy proposed inthis study allows maximum amplification factor predictions for a population of blisks
15

Les glissements de terrain dans le bassin tertiaire volcanisé du Puy-en-Velay (Massif central, France) : caractérisation, facteurs de contrôle et cartographie de l’aléa / Landslides in the volcanic tertiary basin of Puy-en-Velay (France) : characterization, control factors and hazard mapping

Poiraud, Alexandre 28 September 2012 (has links)
[néant] / [néant]
16

Modélisation bayésienne algorithmique de la reconnaissance visuelle de mots et de l'attention visuelle / Algorithmic Bayesian modeling of visual word recognition and visual attention

Phenix, Thierry 15 January 2018 (has links)
Dans cette thèse, nous proposons un nouveau modèle conceptuel de la reconnaissance visuelle de mots implémenté sous forme mathématique de façon à évaluer sa capacité à reproduire les observations expérimentales du domaine. Une revue critique des modèles computationnels existants nous conduit à définir un cahier des charges sous la forme de cinq hypothèses qui sont à la base du modèle conceptuel proposé : le modèle est doté d'une architecture à trois niveaux (sensoriel, perceptif et lexical) ; le traitement est parallèle sur l'ensemble des lettres du stimulus ; l'encodage positionnel est distribué ; enfin, le traitement sensoriel des lettres intègre position du regard, acuité visuelle et distribution de l'attention visuelle. L'implémentation repose sur la méthodologie de la modélisation bayésienne algorithmique, conduisant au modèle BRAID (pour "Bayesian word Recognition with Attention, Interference and Dynamics").Nous vérifions la capacité du modèle à rendre compte des données obtenues en perceptibilité des lettres (par exemple, effets de supériorité des mots et des pseudo-mots, effets de contexte), en reconnaissance de mots et en décision lexicale (par exemple, effets de fréquence et de voisinage). Au total, nous simulons avec succès 28 expériences comportementales, permettant de rendre compte d'effets subtils dans chacun des domaines ciblés. Nous discutons les choix théoriques du modèle à la lumière de ces résultats expérimentaux, et proposons des perspectives d'extension du modèle, soulignant la flexibilité du formalisme choisi. / In this thesis, we propose an original theoretical framework of visual word recognition, and implement it mathematically to evaluate its ability to reproduce experimental observations of the field. A critical review of previous computational models leads us to define specifications in the form of a set of five hypotheses, that form the basis of the proposed theoretical framework: the model is built on a three-layer architecture (sensory, perceptual, lexical); letter processing is parallel; positional coding is distributed; finally, sensory processing involves gaze position, visual acuity, and visual attention distribution. To implement the model, we rely on the Bayesian algorithmic modeling methodology, and define the BRAID model (for "Bayesian word Recognition with Attention, Interference and Dynamics").
17

Analyse des trains de spike à large échelle avec contraintes spatio-temporelles : application aux acquisitions multi-électrodes rétiniennes

Nasser, Hassan 14 March 2014 (has links) (PDF)
L'évolution des techniques d'acquisition de l'activité neuronale permet désormais d'enregistrer simultanément jusqu'à plusieurs centaines de neurones dans le cortex ou dans la rétine. L'analyse de ces données nécessite des méthodes mathématiques et numériques pour décrire les corrélations spatiotemporelles de la population neuronale. Une méthode couramment employée est basée sur le principe d'entropie maximale. Dans ce cas, le produit N×R, où N est le nombre de neurones et R le temps maximal considéré dans les corrélations, est un paramètre crucial. Les méthodes de physique statistique usuelles sont limitées aux corrélations spatiales avec R = 1 (Ising) alors que les méthodes basées sur des matrices de transfert, permettant l'analyse des corrélations spatio-temporelles (R > 1), sont limitées à N×R≤20. Dans une première partie, nous proposons une version modifiée de la méthode de matrice de transfert, basée sur un algorithme de Monte-Carlo parallèle, qui nous permet d'aller jusqu'à N×R=100. Dans la deuxième partie, nous présentons la bibliothèque C++ Enas, dotée d'une interface graphique développée pour les neurobiologistes. Enas offre un environnement hautement interactif permettant aux utilisateurs de gérer les données, effectuer des analyses empiriques, interpoler des modèles statistiques et visualiser les résultats. Enfin, dans une troisième partie, nous testons notre méthode sur des données synthétiques et réelles (rétine, fournies par nos partenaires biologistes). Notre analyse non exhaustive montre l'avantage de considérer des corrélations spatio-temporelles pour l'analyse des données rétiniennes; mais elle montre aussi les limites des méthodes d'entropie maximale.
18

Modélisation de la montée vers un état critique de la situation de basses eaux sous forçages naturel et anthropique en région méditerranéenne / Modeling the rise of a critical state of the low flows situation under natural and anthropogenic presures in the mediterranean basin

Canovas, Ingrid 12 December 2016 (has links)
L’eau et la vie sont inégalement réparties. Ceci entrave le développement des sociétés, et fait apparaître des situations de tension,dont l’intensité et la fréquence varient selon le contexte climatique, la densité des populations et donc de la demande. Avec le changement climatique en cours et la hausse des besoins en eau (dont la « réserve » à laisser aux milieux naturels), le niveau des tensions est susceptible de s’élever, et la fréquence des très basses eaux de s’accroître. Dans le sud-est de la France, l’aire soumise au climat méditerranéen est particulièrement concernée par la fragilité des ressources en eau en période estivale (une saison très peu arrosée et une forte attractivité touristique, etc.). De plus, une modification du régime climatique (diminution des apports pluviométriques, extrêmes plus marqués, etc.) affectera nécessairement davantage les bassins alimentés par des ressources très locales, tels les cours d’eau et les bassins de vie ne bénéficiant pas de l’influence des grands fleuves allogènes à l’aire climatique méditerranéenne (Rhône, Durance, etc.). La réflexion sur le manque ou la pénurie en eau, de qualité propre pour satisfaire les usages sur ces territoires, peut dès lors être portée sur la façon dont un tel risque se construit (succession des étapes, retentissement d’un facteur sur les autres, etc.), et sur la façon dont l’évolution des éléments structurels et des forçages extérieurs conduit ou non à s’approcher d’une situation indésirable.La démarche engagée ici propose de décliner cette approche particulière aux basses eaux. Il s’agit alors de répondre à un triple objectif : (1) identifier et compiler au sein d’une base de données spécifique les informations essentielles pour appréhender le phénomène ; (2) caractériser l’état moyen des basses eaux à partir de situations locales et par le biais de descripteurs statistiques robustes ; (3) déterminer les modalités de son évolution vers des états critiques. Ce travail conduit dans un premier temps au développement d’une modélisation probabiliste, laquelle est conçue pour être déployée dans différentes échelles spatiales et dans différentes temporalités. La réflexion est ensuite étendue aux modalités méthodologiques et techniques pour l’élaboration d’indicateurs analytiques et d’indices synthétiques d’évaluation de la situation de tension sur la ressource.La démarche aboutit enfin à des outils numériques simples et intuitifs, mobilisables à des fins opérationnelles comme support d’aide à la décision pour la mise en place de mesures d’anticipation et de régulation, et transposables à tout territoire méditerranéen. / Water and life are unequally distributed. This hinders the development of societies, and leads to situations of tension, whoseintensity and frequency vary according to climatic conditions, population density and according therefore to demand. With theongoing climate change and the rising water requirements (the stock dedicated to the natural environment), the level of tensionis likely to rise, such as the frequency of very low water. The French Mediterranean territories are particularly concerned withthe fragility of water resources during summertime (a little watered season, a strong tourist appeal, etc.). In addition, everymodification in the climate regime (the decreasing of rainfall inputs, etc.) would necessarily affect more the small catchmentwith very local resources, such as rivers and living areas which don’t benefit from the influence of major rivers (Rhone, Durance,etc.).The reflection on water scarcity can therefore be focused on the structure of such a risk (sequence of steps, the impact of onefactor on the others, etc.), and on the conditions that make the system reach an undesirable situation.The approach adopted here suggests to decline this particular approach to low water. Three objectives are here stated: (1) identifyand compile, within a specific database, the essential information to understand the phenomenon; (2) characterize the meanstate of low water from local situations and through robust statistical descriptors; (3) determine the terms of its evolution tocritical states.The whole work leads first to the development of a probabilistic modeling, which is designed to be deployed in different spatialscales and in dfferent times. The reflection is then extended to the methodological and technical arrangements that would allowthe development of analytical indicators and synthetic indexes for assessing the resource level of tension.The approach finally results in simple and intuitive digital tools, that can be mobilized for operational purposes such asdecision-making support for the implementation of anticipatory measures and regulation, and that can transferable to anyMediterranean territory.
19

Essais virtuels pour l'industrie du meuble / Virtual tests for the furniture industry

Makhlouf, Heba 14 December 2015 (has links)
Le travail s’inscrit dans le cadre d’une collaboration entre le Pôle Ameublement FCBA et le Laboratoire MSME de l’UPEM. L’objectif était de mettre au point un outil de simulation permettant à FCBA de mener une étude de validation (tenue aux tests normalisés) avant la fabrication du meuble. Ce travail était supporté par les fonds collectifs de la profession ameublement. Il a donné lieu à des développements dans le domaine de l’identification du comportement anisotrope du bois par analyse d’images couplée à la méthode des éléments finis, d’une approche multi-échelle pour identifier le comportement des liens entre éléments de meuble et d’un programme éléments finis utilisant l’approche « poutres » pour réaliser une étude statistique du comportement du meuble prenant en compte la dispersion du comportement du bois. Chaque étape a été validée expérimentalement. La simulation par éléments finis s’est focalisée sur une application « lits superposées en bois massif » pour laquelle un code à base de poutres a été développé dans l’environnement Matlab afin de pouvoir y implanter :• une théorie élastique anisotrope via des poutres de Timoshenko pour prendre en compte l’effet des déformations dues aux faibles rigidités transversales du bois en regard de la rigidité longitudinale ;• des éléments de connexion ponctuels représentant la contribution des composants de quincaillerie (vis, écrou noyé, tourillon…) et les effets locaux 3D aux liaisons entre poutres ;• la possibilité de prendre en compte les incertitudes sur les paramètres matériau d’une poutre à l’autre en fonction de l’orientation des planches, de la densité du bois etc… via une simulation de Monte-Carlo / The work joins within the framework of a collaboration between the Pole Furnishing FCBA and the Laboratory MSME of the UPEM. The objective was to finalize(to work out) a tool of simulation allowing FCBA to lead a study of validation (held the normalized(standardized) tests) before the manufacturing of the piece of furniture
20

Méthode de simulation appropriée aux systèmes complexes : preuve de concept auto-adaptative et auto-apprenante appliquée aux transferts thermiques / Suitable method for complex systems simulation : self-adaptive and self-learning proof-of-concept applied to coupled heat transfer

Spiesser, Christophe 20 June 2017 (has links)
L’augmentation de la puissance informatique disponible permet aux ingénieurs et designers d’aborder par simulation des problèmes de plus en plus complexes (multi-physiques, multi-échelles, géométries intriquées ...). Dans ce contexte, les quadratures à base de discrétisation (FDM, FEM, FVM) montrent leur limite : le besoin d’un grand nombre de sous-domaines qui implique des coûts RAM et CPU prohibitifs. La méthode de Monte-Carlo apparaît plus appropriée, mais son utilisation est verrouillée par la difficulté de générer des modèles probabilistes de systèmes complexes. Pour surpasser ceci, une approche systémique est proposée et implémentée pour créer une preuve de concept appliquée à la simulation des transferts thermiques couplés. Après une étape de validation vis-à-vis de solutions analytiques, l’outil est employé; sur des cas d’illustration (transferts thermiques au sein de bâtiments et dans une centrale solaire) pour étudier ses capacités. L’approche mise en œuvre présente un comportement particulièrement avantageux pour la simulation de systèmes complexes : son temps de calcul ne dépend que des parties influentes du problème. De plus, elles sont automatiquement identifiées, même en présence de géométries étendues ou intriquées, ce qui rend les simulations auto-adaptatives. Par ailleurs, ses performances de calcul ne sont pas corrélées avec le rapport d’échelle caractérisant le système simulé. Ceci en fait une approche douée d’une remarquable capacité à traiter les problèmes à la fois multi-physiques et multi-échelles. En parallèle de l’estimation d’une observable par des chemins d’exploration, l’outil analyse également ces derniers de manière statistique. Ceci lui permet de générer un modèle prédictif réduit de l’observable, procurant ainsi une capacité d’auto-apprentissage à la simulation. Son utilisation peut améliorer les processus d’optimisation et de contrôle-commande, ou simplifier les mesures par méthodes inverses. De plus, elle a aussi permis de mener une analyse par propagation d’incertitudes, affectant les conditions aux frontières, vers l’observable. Enfin, une démonstration d’optimisation, utilisant des modèles réduits générés, a été réalisée. / As computing power increases, engineers and designers tackle increasingly complex problems using simulation (multiphysics, multiscale, intricated geometries ...). In this context, discretization-based quadratures (FDM, FEM, FVM) show their limit: the need of a great number of sub-domains which induces prohibitive consumption of RAM and CPU power. The Monte Carlo method appears to be more appropriate, but the difficulty to build probabilistic models of complex systems forms a bottleneck. A systemic approach is proposed to alleviate it and is implemented to create a proof-of-concept dedicated to the coupled heat transfer simulation. After a successful validation step against analytical solutions, this tool is applied to illustrative cases (emulating heat transfer in buildings and in solar heating systems) in order to study its simulation capabilities.This approach presents a major beneficial behavior for complex systems simulation: the computation time only depends on the influential parts of the problem. These parts are automatically identified, even in intricate or extensive geometries, which makes the simulation self-adaptive. In addition, the computational performance and the system scale ratio are completely uncorrelated. Consequently, this approach shows an exceptional capacity to tackle multiphysics and multiscale problems. Each temperature is estimated using exploration paths. By statistically analyzing these paths during the process, the tool is able to generate a reduced predictive model of this physical quantity, which is bringing a self-learning capacity to the simulation. Its use can significantly improve optimization and control of processes, or simplify inverse measurements. Furthermore, based on this model, an uncertainty propagation analysis has been performed. It quantifies the effect of uncertainties affecting boundary conditions on the temperature. Finally a Particle Swarm Optimization (PSO) process, based on simulations done by the framework, is successfully carried out.

Page generated in 0.5268 seconds