• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 253
  • 96
  • 29
  • Tagged with
  • 377
  • 179
  • 69
  • 66
  • 65
  • 60
  • 52
  • 41
  • 39
  • 37
  • 36
  • 35
  • 35
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modélisation intégrée de la précipitation pour le soudage par friction malaxage d'alliages d'aluminium à durcissement structural / Integrated Precipitate Simulation for Friction Stir Welding of Age Hardening Aluminium Alloys

Hersent, Emmanuel 12 February 2010 (has links)
Le friction stir welding (FSW) est un procédé de soudage inventé en 1991 par l’institut de soudure anglais, le TWI. Celui-ci suscite un vif intérêt de la part de l’industrie aéronautique par sa capacité de souder les alliages d’aluminium de la série 2XXX et 7XXX, à durcissement structural, réputés pratiquement insoudables. Ce procédé étant relativement récent, il fait encore sujet de recherches actives. Ce travail a pour objectif de prévoir le profil de dureté d’un joint soudé par FSW d’un alliage d’aluminium, le 2024 T3. Cet alliage étant à durcissement structural, il est nécessaire de prévoir l’influence de la température sur l’évolution de la précipitation au cours du procédé pour en déduire sa limite d’élasticité. L’estimation du champ de température durant le régime stationnaire du procédé s’appuie sur des travaux internes au centre SMS. La prévision de la précipitation au cours du soudage est effectuée à l’aide de deux modèles. Le premier modèle, à base d’équivalence temps–températures, est une proposition d’extension aux alliages d’aluminium sous-revenu du modèle de Myhr & Grong (1991) établi dans le cas des alliages d’aluminium sur-revenu. Le deuxième modèle s’appuie sur une discrétisation de la distribution des rayons des précipités, suivant le schéma numérique de Kampmann et Wagner (1983), pour calculer ensuite son évolution. Bien que le premier modèle permette de prévoir l’évolution de la dureté au cours de recuits isothermes, les profils de dureté simulés ne sont pas en accord avec les profils expérimentaux. Seul le deuxième modèle permet une prévision raisonnable de la microstructure, en accord avec les mesures réalisées dans la thèse de Genevois (2004), et des profils de dureté proches des résultats expérimentaux. Finalement, une expression analytique en fonction des paramètres microstructuraux du flux de chaleur lors d’un essai de calorimétrie différentielle (DSC) a été établie. Celle-ci donne la possibilité de simuler un essai de DSC, et de vérifier ainsi la cohérence entre les grandeurs thermodynamiques et cinétiques introduites dans le deuxième modèle de précipitation. / Friction stir welding (FSW) is a recent welding process invented by The Welding Institute (TWI). It is particularly interesting for the aeronautical sector due to its capacity to weld 2XXX and 7XXX age-hardening aluminium alloys, which were previously considered unweldable. This relatively new process is currently the subject of active research. This work aims to simulate the hardness profile of an AA2024-T3 friction stir weld. AA2024-T3 is an age hardening aluminium alloy, so it is necessary to predict the effect of temperature on the evolution of precipitation during the process to deduce its yield strength. An estimation of the temperature field during the stationary regime relies on internal work of the SMS centre. Precipitate evolution during welding is simulated using two models. The first one, based on the isokinetic strength, is an extension to under-aged aluminium alloys of the Myhr & Grong model (1991) established for the overaged aluminium alloy. The second one, based on the Kampmann and Wagner (1983) numerical framework discretizes the distribution of the precipitate radius to deduce its evolution. Though the first model can predict the hardness evolution during isothermal treatments, the simulated profiles do not match the experimental ones. Only the second one can predict reasonably well the microstructures in agreement with the observations described in the thesis of Genevois (2004) and also with hardness profiles close to the experimental ones. An analytical expression for the heat flux during a differential scanning calorimetry experiment has been established as a function of microstructural parameters. This gives one the possibility to simulate a DSC experiment and to validate the coherency between thermodynamical and kinetic quantities, as introduced in the second precipitation model.
72

Shape, rhythms and growth heterogeneities of a leaf : unfurling and nutation of Averrhoa carambola / Forme, rythmes et hétérogénéités de croissance d'une feuille : déroulement et nutation chez Averrhoa carambola

Rivière, Mathieu 20 November 2017 (has links)
Chez les plantes, la croissance est essentielle à la régulation de la forme de tout organe en développement. A l'échelle de la cellule, la croissance résulte de la compétition entre la pression interne de la cellule et la rigidité de sa paroi. Des hétérogénéités de ces grandeurs à l'échelle du tissu mènent alors à une croissance différentielle puis à des mouvements à l'échelle de l'organe entier. Ces mouvements macroscopiques peuvent être interprétés comme une manifestation des processus de croissance microscopiques. Nous proposons de mettre à profit ce lien entre croissance et mouvements afin d'approcher la croissance d'une nouvelle manière : de l'organe à la cellule. Nos travaux portent sur les feuilles composées d'Averrhoa carambola qui montrent deux mouvements typiques des feuilles en croissance,le déroulement et la nutation. Nous montrons dans un premier temps que la forme de la feuille en croissance est régulée de manière active. Nous étudions ensuite la cinématique du déroulement et de la nutation. Ce faisant, nous mettons en évidence une relation particulière entre croissance et croissance différentielle à partir de laquelle nous construisons un modèle cinématique de nutation. Conformément à de précédents résultats, ce modèle suggère que la croissance peut s'accompagner de contractions locales. Enfin, à l'échelle du tissu, la mécanique des parois cellulaires et leur composition sont étudiées. Nos résultats révèlent des hétérogénéités spatiales de ces deux paramètres au sein de la feuille, potentiellement cohérents avec la direction du mouvement de nutation. / In plants, growth is essential to the shape regulation of developing organs. It is also the key for every plant to adapt to its environment. At the cell level, growth relies on a competition between the inner pressure of the cell and the rigidity of its cell wall. Heterogeneities of these quantities across the tissue can result in differential growth and lead to motions of the whole organ. These macroscopic motions can thus be read as an outward signal of the cellular mechanisms underlying shape regulation and growth itself. Here, we propose to take benefit from this link between growth and motions to gain a new insight on growth through a multiscale approach, from the organ to the cell wall. We focus on the compound leaves of Averrhoa carambola which display two marked motions, unfurling and nutation, widespread among developing leaves. First, we show that the shape of the leaf results from an active regulation of its macroscopic mechanical properties. The kinematics of the two latter motions are then compared to the associated growth. Doing so, we put forward the specific patterns of growth and differential growth underlying the development of the leaf. Based on these results, we build a kinematic model for nutation which, accordingly with previous findings, suggests the occurrence of local contractions during growth. At the cell wall level, our results reveal spatial heterogeneities of both its rigidity and biochemical status within the leaf. These heterogeneities might be consistent with the direction of the nutation.
73

Analyse statistique de données biologiques à haut débit / Statistical analysis of high-throughput biological data

Aubert, Julie 07 February 2017 (has links)
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique. / The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects.
74

Discrimination robuste par méthode à noyaux / Robust discrimination using kernel approach

Lachaud, Antoine 17 December 2015 (has links)
La thèse porte sur l'intégration d éléments explicatifs au sein d'un modèle de classification. Plus précisément la solution proposée se compose de la combinaison entre un algorithme de chemin de régularisation appelé DRSVM et une approche noyau appelée KERNEL BASIS. La première partie de la thèse consiste en l'amélioration d'un algorithme appelé DRSVM à partir d'une reformulation du chemin via la théorie de la sous-différentielle. La seconde partie décrit l'extension de l'algorithme DRSVM au cadre KERNEL BASIS via une approche dictionnaire. Enfin une série d'expérimentation sont réalisées afin de valider l'aspect interprétable du modèle. / This thesis aims at finding classification rnodeIs which include explanatory elements. More specifically the proposed solution consists in merging a regularization path algorithm called DRSVM with a kernel approach called KERNEL BASIS. The first part of the thesis focuses on improving an algorithm called DRSVM from a reformulation of the thanks to the suh-differential theory. The second part of the thesis describes the extension of DRSVM afgorithm under a KERNEL BASIS framework via a dictionary approach. Finally, a series of experiments are conducted in order to validate the interpretable aspect of the rnodel.
75

Développement d'un modèle numérique pour l'écoulement triphasique de fluides incompressibles / Numerical modeling of three-phase incompressible flow with gravity effects using the global pressure formulation

Schneider, Lauriane 18 February 2015 (has links)
La modélisation des hydrosystèmes souterrains est devenue un outil crucial dans la gestion des ressources d'eaux souterraines ainsi que pour la surveillance des sites contaminés. L'objectif de ce travail de thèse est de modéliser l'écoulement d'une phase non-aqueuse liquide dense (DNAPL) dans les sols, et de développer un code pour la simulation des écoulements triphasiques de fluides incompressibles en milieux poreux. Le modèle mathématique pour les écoulements multiphasiques de fluides en milieux poreux est généralement constitué d'une équation de pression et de deux équations de saturation. Notre approche est fondée sur une formulation en pression globale : elle permet un découplage partiel des équations de pression et de saturations, et elle est plus efficace en termes de résolution numérique. Le nouveau modèle est discrétisé selon un schéma IMPES. Dans ce travail de thèse, la méthode des Eléments Finis Discontinus de Galerkine est combinée à un schéma de Godunov généralisé pour la résolution de la partie convective de l'équation de saturation. Un écoulement diphasique non miscible avec effets gravitaires importants et sans capillarité a été simulé. Une analyse fonctionnelle démontre que le profil de saturation de la phase non-aqueuse entrante dépend essentiellement du rapport de la vitesse totale sur la différence de densité entre la phase non aqueuse et l'eau. Le code développé a permis de simuler un drainage gravitaire à grande échelle. Enfin, un modèle numérique non-linéaire d'écoulement triphasique de fluides utilisant la Méthode des Lignes est introduit. Les causes d'oscillations instables du système en zone elliptique sont examinées. Des méthodes de relaxation et la construction d'un modèle de perméabilités relatives vérifiant la condition de Différentielle Totale sont envisagées. / Numerical simulation has become a crucial tool in addressing water-resource management and other environmental problems such as polluted sites monitoring. The aim of this work is to model the flow of a dense non aqueous phase liquid (DNAPL) in the subsurface by developing a numerical code to simulate three-phase (DNAPL, water, and gas), incompressible flow in porous media. The mathematical model for multiphase flow in porous media is generally composed of a system of one pressure and two saturation equations. Our approach is based on a global pressure model : it leads to a partial decoupling of the pressure and the saturation equation and is more efficient from the computational point of view. The new model is discretized by a Mixed Hybrid Finite Elements Method (MHFEM), Discontinuous Galerkin Finite Elements (DGFEM), IMPES resolution method. In this work, the DGFEM scheme is combined with a generalised Godunov scheme to solve the convective part of the saturation equation. An immiscible two-phase flow with predominant gravity effects and whithout capillary effects has been modelled. It has been shown that the saturation profile of a displacing non-aqueous phase liquid (NAPL) in an initially water-saturated porous medium depends strongly on the ratio between the total specific discharge and the density difference between the NAPL and water. The 2D-code enabled a simulation of a large-scale gravity drainage. Finally, a non-linear three-phase 1D flow formulation using Method of Lines (MOL) has been introduced. Unstable oscillatory behavior of the system when the initial state are in the elliptic region of the ternary diagram is examined. Non-equilibrium formulation and construction of relative permeability model satisfying the Total-Differential are foreseen.
76

Utilisation de la méthode d'équivalence de Cartan dans la construction d'un solveur d'équations différentielles

Dridi, Raouf 20 July 2007 (has links) (PDF)
L'implantation actuelle des solveurs d'équations différentielles combine les deux méthodes de classification et de réduction d'ordre. La méthode de classification consiste à tester si l'équation à résoudre figure, modulo un renommage des variables, dans une liste d'équations que l'on sait résoudre. La méthode de réduction d'ordre, basée sur l'analyse des symétries de Lie, est réservée aux équations qui ne font pas partie de cette liste.<br /><br />En pratique, plusieurs difficultés apparaissent. Tout d'abord, le calcul des quadratures ainsi que l'intégration des systèmes d'EDP (même linéaires) n'est pas chose facile. De ce fait, il arrive souvent que le solveur se contente de retourner en sortie des résultats partiels, en particulier lorsque la dimension du (pseudo)groupe de symétries de l'équation à résoudre est petite. Enfonçons le clou : lorsque cette dimension est nulle, les solveurs, tel qu'il sont conçus actuellement, sont incapables d'intégrer ou même de réduire l'ordre de l'équation.<br /><br />Cette thèse s'inscrit donc dans l'effort d'amélioration des solveurs actuels. Nous allons présenter et montrer la faisabilité d'une architecture, totalement nouvelle, pour la conception d'un solveur d'équations différentielles basé sur la méthode d'équivalence de Cartan. Notre solveur utilise les invariants différentiels produits par la méthode de Cartan pour détecter l'existence d'une équation différentielle de la liste de Kamke, équivalente à l'équation que l'on veut résoudre et calculer le changement de variables qui réalise cette équivalence.<br /><br />Ceci dit, le calcul du changement de variables est une question qui peut être délicate. En général, il est solution d'un système d'EDP. Nous montrons que lorsque le pseudo-groupe des transformations autorisées est choisi tel que le pseudo-groupe de symétries de l'équation cible est discret, intuitivement, le changement de variables s'obtient sans intégrer d'équations différentielles uniquement en résolvant des équations algébriques.
77

Les effets de l’insécurité de l’emploi sur la santé des employés et le rôle du sentiment d’efficacité personnelle : allié ou ennemi?

Duarte Ramos Feio, Agda 04 1900 (has links)
Cette recherche a pour but d’étudier les effets de l’insécurité de l’emploi sur la santé des employés. L’insécurité de l’emploi a été étudiée comme une ressource qui est en constante menace. Parfois, ces menaces sont des interprétations personnelles que peuvent ne jamais aboutir à un licenciement, néanmoins engendrent de forts niveaux de stress chez les employés. Le deuxième objective concerne à étudier comment remédier cette situation. Nous sommes intéressés par le rôle du sentiment d’efficacité personnelle. Ce trait de personnalité peut être utilisé comme une ressource positive à mettre en place afin d’éliminer, sinon d’atténuer les conséquences négatives de l’insécurité de l’emploi sur la santé. Afin de déterminer ces associations, nous avons mis en relation un modèle qui consiste à identifier la façon selon laquelle les individus perçoivent une menace dans leur environnement (l’exposition différentielle) et la façon dont ils produisent les réponses afin d’atténuer les effets du stresseur (la réactivité différentielle). Nous avons utilisé une base de données secondaire recueillie à l’aide d’un sondage électronique dont 310 employés brésiliens, âgés en moyenne de 39 ans et avec plus de 10 ans d’expérience, ont participé volontairement et anonymement. Les résultats ont révélé que l’insécurité de l’emploi est effectivement un stresseur qui produit plusieurs problèmes de santé. Cependant, les employés qui présentent un niveau de sentiment d’efficacité personnelle élevé réagissent à l’insécurité de l’emploi différemment des participants dont le SEP est faible. Ainsi, les travailleurs avec un haut niveau d’efficacité personnelle sont moins affectés par l’insécurité de l’emploi. Tandis que pour les employés qui présentent un faible niveau de sentiment d’efficacité personnelle les résultats indiquent que plus l’insécurité de l’emploi accroît, plus les problèmes de santé se révèlent. / The first objective of this research is to study the effects of job insecurity on employee health. Job insecurity has been studied as a resource that is under constant threat. Sometimes these threats are personal interpretations that may not result in dismissal, but still cause high levels of stress among employees. The second objective concerns studying how to repair this situation. We are interested in the role of the self-efficacy. This trait of personality can be used as a positive resource to put in place to eliminate, if not mitigate, the consequences of job insecurity in the health. In order to determine these associations, we have linked a model that consists in identifying the way in which individuals perceive a threat in their environment (differential exposure) and the way that they produce the responses in order to deal with the stressor (differential reactivity). We used a secondary database collected using an electronic survey in which 310 Brazilian employees, average age 39 years and over 10 years of professional experience, participated voluntarily and anonymously. The results showed that job insecurity is indeed a stressor that produces several health problems. However, employees with a high level of personal self-efficacy respond to job insecurity differently from employees with low personal self-efficacy. Therefore, workers with a high level of personal self-efficacy are less affected by job insecurity. While the employees with a low level of personal self-efficacy, the results indicate that the more job insecurity increases, the worse the overall health conditions the employees have
78

Analyse et modélisation de la surface corticale et de l'architecture sous-jacente des axones

St-Onge, Etienne January 2016 (has links)
L'imagerie par résonance magnétique (IRM) est la seule technique non invasive d'imagerie médicale qui permet la reconstruction de l'architecture neuronale du cerveau. Cette approche est fondamentale pour le domaine des neurosciences, qui tente continuellement de développer de nouveaux outils et modèles pour mieux détecter et étudier les maladies mentales et neurodégénératives, les troubles du développement, les tumeurs, les commotions, ainsi que plusieurs autres pathologies du cerveau humain. L'IRM de diffusion (IRMd) combinée à la tractographie rend possible l'extraction de l'information structurelle sur les fibres nerveuses. Ces méthodes permettent de visualiser, d'analyser et d'évaluer l'intégrité de la matière blanche, ceci afin d'identifier la présence d'anomalies le long des axones, causées par la démyélinisation, la mort axonale ou d'autres détériorations. La problématique est que ces méthodes ont une faible résolution comparée à une surface ou une image anatomique IRM. L'IRMd est limitée par son faible rapport signal sur bruit (SNR) et l'effet de volume partiel causé par la discrétisation. Certains modèles géométriques ont récemment été utilisés pour mieux modéliser l'expansion corticale, la topologie des plis corticaux et l'organisation des couches de la matière grise. Toutefois, ces modèles fournissent seulement de l'information sur l'organisation du cortex et non pas sur la matière blanche comme telle, ni sur la structure des neurones. Cette recherche vise à modéliser la structure complexe des fibres de la matière blanche à l'aide d'équations différentielles et de flots géométriques. Ce mémoire présente différents modèles mathématiques (surface et flot) ainsi que leur intégration avec la méthode des différences finies. Nous proposons également d'utiliser un maillage de la surface corticale afin d'améliorer la précision de l'IRMd et de limiter l'effet de volume partiel. Validée qualitativement et quantitativement avec l'aide d'acquisitions hautes résolutions du Human Connectome Project (HCP) et d'un jeu de données de reproductibilité de test-retest, cette méthode permet d'améliorer la tractographie. Les résultats de ces travaux permettront de faire le pont entre l'imagerie de diffusion (IRMd) et les modalités propres à l'imagerie fonctionnelle (EEG, MEG, IRMf et TMS), pour lesquelles la structure des axones situés sous le cortex est essentielle pour bien modéliser et comprendre le fonctionnement cérébral.
79

MISE AU POINT D'UN DISPOSITIF COUPLE MANOMETRIQUE CALORIMETRIQUE POUR L'ETUDE DE L'ADSORPTION DE FLUIDES SUPERCRITIQUES DANS DES MILIEUX MICROPOREUX ET MESOPOREUX

Mouahid, Adil 10 December 2010 (has links) (PDF)
Au cours de ce travail, un dispositif de mesure couplé manométrique-calorimétrique a été développé pour déterminer simultanément les isothermes et les enthalpies d'adsorption dans des intervalles élevés de pression et température. Ce dispositif couplé comprend un calorimètre Calvet C80 (de setaram) associé à un dispositif manométrique développé in-situ. Il permet d'étudier les phénomènes d'adsorption de gaz sur des solides poreux pour des températures comprises entre 303.15K à 423.15K et des pressions comprises entre 0 et 2.5MPa. Dans un premier temps, une description complète de l'appareillage et des protocoles expérimentaux sont exposés. Dans un second temps, la fiabilité et la reproductibilité de ce dispositif a été testée en réalisant des mesures sur un échantillon poreux benchmark (Filtrasorb F400) à 318.15K. Les mesures ont été complétées, à différentes températures, avec celles obtenues par méthode gravimétrique afin d'établir des informations à haute température et haute pression. Ces dispositifs ont permis d'étudier l'adsorption de fluide supercritique (azote N2, méthane CH4, dioxyde de carbone CO2) dans des charbons actifs et des silices microporeuse ou mésoporeuse. L'adsorption du méthane dans une roche de type (TGR) a été également étudiée. Ces résultats expérimentaux sont utilisés pour l'étude des interactions fluide/substrat à prendre en compte dans la simulation moléculaire ou la théorie DFT.
80

Simulation du mouvement brownien et des diffusions

Faure, Olivier 21 February 1992 (has links) (PDF)
L'objet de cette thèse est l'étude de la simulation numérique de certains processus stochastiques, les diffusions, dont le mouvement brownien est un exemple typique. Nous commençons par quelques rappels sur le mouvement brownien au chapitre 1. Il s'agit d'une présentation élémentaire, qui s'appuie sur la simulation numérique, et permet de rappeler quelques propriétés classiques. Puis nous présentons au chapitre 2 une simulation alternative du mouvement brownien, en un sens plus naturelle, qui s'attache davantage à son comportement spatial que les méthodes traditionnelles. Le mouvement brownien est simulé à des instants aléatoires qui gouvernent son comportement; ce sont les temps de sortie de certaines "boîtes noires". En choisissant la taille et la position de ces boîtes noires dans l'espace, et sous réserve qu'elles se chevauchent, on peut ainsi simuler très précisément une trajectoire brownienne. La suite de la thèse est consacrée à l'analyse numérique des équations différentielles stochastiques (E.D.S) et à la simulation informatique de leur solution. Nous commençons au chapitre 3 par une introduction qui rappelle ce que sont les E.D.S, cite quelques unes de leurs propriétés et applications classiques dans les sciences de l'ingénieur. Au chapitre 4 nous présentons un résultat de convergence trajectorielle du schéma d'Euler en en précisant l'ordre de convergence. Un résultat similaire est présenté pour le schéma de Milshtein au chapitre 5. Comme on peut s'y attendre, ce schéma est plus performant que le schéma d'Euler, quand la condition classique de commutativité est vérifiée. Ceci améliore partiellement un résultat de Denis Talay. On étudie ensuite au chapitre 6 une classe de schémas de discrétisation à pas variables permettant une approximation spatiale des diffusions dans l'esprit du chapitre 2. Nous commençons par un résultat assez général de convergence d'un schéma d'Euler défini le long d'une subdivision aléatoire. Dans le cas où cette subdivision est gouvernée par les temps de passage successifs du mouvement brownien, nous retrouvons et étendons partiellement des travaux de Nigel Newton. Dans le cas où cette subdivision de façon à ce que les accroissements du schéma de discrétisation soient constants, nous étudions un schéma de discrétisation originalement présenté par Bichteler. Nous précisons sa vitesse de convergence et donnons une méthode de simulation numérique. Le chapitre 7 est un panorama des travaux existants sur la discrétisation des équations différentielles stochastiques. Sans prétendre être exhaustif, nous présentons au contraire une relecture des travaux existants dans l'optique de la simulation numérique. Enfin le chapitre 8 s'attache à quelques questions ou problèmes non résolus qui représentent un intérêt évident pour les applications. Nous suggérons pour chacune de ces questions quelques commencements de réponse.

Page generated in 0.0998 seconds