• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 29
  • 3
  • Tagged with
  • 113
  • 113
  • 113
  • 31
  • 23
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

From few-body atomic physics to many-body statistical physics : the unitary Bose gas and the three-body hard-core model / De la physique atomique à peu de corps à la physique statistique à N-corps : le gaz de Bose unitaire et le modèle de cœur dur à trois corps

Comparin, Tommaso 06 December 2016 (has links)
Les gaz d'atomes ultrafroids offrent des possibilités sans précédent pour la réalisation et la manipulation des systèmes quantiques. Le contrôle exercé sur les interactions entre particules permet d'atteindre le régime de fortes interactions, pour des espèces d'atomes à la fois fermioniques et bosoniques. Dans la limite unitaire, où la force d'interaction est à son maximum, des propriétés universelles émergent. Pour les atomes bosoniques, celles-ci comprennent l'effet Efimov, l'existance surprenante d'une séquence infinie d'états liés à trois corps. Dans cette thèse, nous avons étudiés un système de bosons unitaires. Partant des cas à deux et à trois corps, nous avons montrés que le modèle choisi capturait correctement les caractéristiques universelles de l'effet Efimov. Pour le modèle à N-corps, nous avons développé un algorithme de Monte Carlo quantique capable de réaliser les différentes phases thermodynamiques du système : gaz normal à haute-température, condensat de Bose-Einstein, et liquide d'Efimov. Un unique composant de notre modèle resterait pertinent à la limite de température infinie, à savoir la répulsion corps dur à trois corps, qui constitue une généralisation du potentiel classique entre sphères dures. Pour ce modèle, nous avons proposé une solution au problème d'empilement compact en deux et trois dimensions, fondée sur une Ansatz analytique et sur la technique de recuit simulé. En étendant ces résultats à une situation de pression finie, nous avons montré que le système présente une transition de fusion discontinue, que nous avons identifié à travers la méthode de Monte Carlo. / Ultracold atomic gases offer unprecedented possibilities to realize and manipulate quantum systems. The control on interparticle interactions allows to reach the strongly-interacting regime, with both fermionic and bosonic atomic species. In the unitary limit, where the interaction strength is at its maximum, universal properties emerge. For bosonic atoms, these include the Efimov effect, the surprising existence of an infinite sequence of three-body bound states. In this thesis, we have studied a system of unitary bosons. Starting from the two- and three-body cases, we have shown that the chosen model correctly captures the universal features of the Efimov effect. For the corresponding many-body problem, we have developed a quantum Monte Carlo algorithm capable of realizing the different thermodynamic phases in which the system may exist: The high-temperature normal gas, Bose-Einstein condensate, and Efimov liquid. A single ingredient of our model would remain relevant in the infinite-temperature limit, namely the three-body hard-core repulsion, which constitutes a generalization of the classical hard-sphere potential. For this model, we have proposed a solution to the two- and three-dimensional packing problem, based on an analytical ansatz and on the simulated-annealing technique. Extending these results to finite pressure showed that the system has a discontinuous melting transition, which we identified through the Monte Carlo method.
82

Modélisation du transfert thermique couplé conductif et radiatif au sein de milieux fibreux portés à haute température / Modeling of the coupled radiative and conductive heat transfer within fibrous media at high temperature

Dauvois, Yann 14 December 2016 (has links)
Dans ce travail, les propriétés thermiques effectives du milieu fibreux sont déterminées en tenant compte du couplage conduction et rayonnement. Un échantillon numérique fibreux statistiquement homogène composé de deux phases a été généré en empilant des cylindres finis absorbant dans le vide. Ces cylindres sont dispersés selon des fonctions de distribution de la position de leur centre et de leur orientation. L'interpénétration des cylindres est permis. L'extinction, l'absorption et la diffusion sont caractérisées par des fonctions statistiques radiatives qui permettent de savoir si le milieu est Beerien (ou non). Elles sont déterminées précisément à l'aide d'une méthode de Monte Carlo. On montre que la phase gazeuse a un comportement Beerien et que le phase fibreuse a un comportement fortement non Beerien. Le champ de puissance radiative déposée dans le milieu fibreux est calculé en résolvant un modèle qui couple une Équation du Transfert Radiatif Généralisée (ETRG) et une Équation du Transfert radiatif Classique (ETR). Le modèle de conduction thermique est basé sur une méthode de marche aléatoire ne nécessitant aucun maillage. La simulation du mouvement Brownien de marcheurs dans les fibres permet de résoudre l'équation de l'énergie. L'idée de la méthode est de caractériser la température d'un volume élémentaire par une densité de marcheurs, qui peuvent parcourir le milieu. Le problème est gouverné par les conditions aux limites ; Une concentration constante de marcheurs (ou un flux constant) est associée à une température imposée (ou un flux). / In the present work, the effective heat transfer properties of fibrous medium are determined by taking into account a coupling of heat conduction and radiation. A virtual, statistically homogeneous, two-phase fibrous sample has been built by stacking finite absorbing cylinders in vaccum. These cylinders are dispersed according to prescribed distribution functions defining the cylinder positions and orientations. Cylinder overlappings are allowed. Extinction, absorption and scattering are characterised by radiative statistical functions which allow the Beerian behaviour of a medium to be assessed (or not). They are accurately determined with a Monte Carlo method. Whereas the gaseous phase exhibits a Beerian behaviour, the fibre phase is strongly non Beerian. The radiative power field deposited within the fibrous material is calculated by resolving a model which couples a Generalized Radiative Transfer Equation (GRTE) and a classic Radiative Transfer Equation (RTE). The model of conduction transfer is based on a random walk method without meshing. The simulation of Brownian motion of walkers in fibres allows the energy equation to be solved. The idea of the method is to characterize the temperature in an elementary volume by the density of walkers, which roam the medium. The problem is governed by boundary conditions ; A constant concentration of walkers (or a constant flux) is associated with a fixed temperature (or flux).
83

Effets thermoélectriques dans des liquides complexes : liquides ioniques et ferrofluides / Thermoelectric effects in complex liquids : ionic liquids and ferrofluids

Salez, Thomas 10 November 2017 (has links)
Les liquides complexes sont des matériaux très prometteurs pour réaliser la conversion bon marché et à grande échelle d’énergie thermique en énergie électrique, dans un contexte de réchauffement climatique et de maîtrise de la consommation d’énergie. Nous montrons qu’en présence d’un couple redox, les cellules thermogalvaniques à base de liquides ioniques (NEA et EMIMTFSI) présentent des propriétés remarquables tels des coefficients Seebeck de plus de 5 mV/K (Eu³⁺/Eu²⁺ dans l’EMIMTFSI). De même, ces travaux présentent l’utilisation de ferrofluides, solutions colloïdales (aqueuses ou à base de solvants organiques) de nanoparticules magnétiques (maghémite), pour accroître le coefficient Seebeck et le courant extractible de générateurs thermoélectriques liquides. Les phénomènes réversibles d’adsorption des nanoparticules sur la surface des électrodes jouent également un rôle important sur les propriétés thermoélectriques de ces solutions, et sont modifiés par l’application de champs magnétiques homogènes parallèles ou perpendiculaires au gradient de température.En l’absence d’un couple redox, les liquides ioniques peuvent être utilisés pour fabriquer des supercondensateurs à charge thermique. Ces derniers exploitent les modifications avec la température des double couches électriques aux interfaces liquide/électrode. Nous avons étudié ici ces modifications de double couches dans l’EMIMBF4 par simulations numériques de Monte-Carlo. Les résultats démontrent un accroissement conséquent des propriétés thermoélectriques lors de la dilution du liquide ionique dans un solvant organique, l’acétonitrile, en accord qualitatif avec les résultats expérimentaux. / Complex liquids are promising material for low cost and wide scale conversion of thermal energy to electric energy, within a context of global warming and control of the energy consumption.In this work we showed that with a redox couple, ionic liquid (EAN and EMIMTFSI) based thermogalvanic cells present remarkable thermoelectric properties such as the Seebeck coefficient over 5 mV/K (Eu³⁺/Eu²⁺ in EMIMTFSI). Moreover, we demonstrated for the first time that ferrofluids, colloidal solutions (aqueous or organic solvent based) of magnetic nanoparticles (maghemite), can be used to increase both the Seebeck coefficient and the electric current in liquid thermoelectric generators through unknown physical processes. The importance of reversible adsorption phenomena of the nanoparticles on the electrodes’ surface for the thermoelectric properties of these solutions was revealed. That can be further modified by a homogeneous magnetic field applied perpendicular or parallel to the temperature gradient. Without a redox couple, ionic liquids can be used to build thermally chargeable supercapacitors. They take advantage of temperature dependent electrical double-layer formation at liquid/electrode interfaces. Here, we studied these double-layer modifications in EMIMBF4/platinum through Monte-Carlo simulations. The results show substantial modifications in the thermoelectric properties when the ionic liquid is diluted in an organic solvent, acetonitrile. These results are qualitatively consistent with experimental measurements.
84

Vitesse de convergence de l'échantillonneur de Gibbs appliqué à des modèles de la physique statistique / The convergence rate of the Gibbs sampler for some statistical mechanics models

Helali, Amine 11 January 2019 (has links)
Les méthodes de Monte Carlo par chaines de Markov MCMC sont des outils mathématiques utilisés pour simuler des mesures de probabilités π définies sur des espaces de grandes dimensions. Une des questions les plus importantes dans ce contexte est de savoir à quelle vitesse converge la chaine de Markov P vers la mesure invariante π. Pour mesurer la vitesse de convergence de la chaine de Markov P vers sa mesure invariante π nous utilisons la distance de la variation totale. Il est bien connu que la vitesse de convergence d’une chaine de Markov réversible P dépend de la deuxième plus grande valeur propre en valeur absolue de la matrice P notée β!. Une partie importante dans l’estimation de β! consiste à estimer la deuxième plus grande valeur propre de la matrice P, qui est notée β1. Diaconis et Stroock (1991) ont introduit une méthode basée sur l’inégalité de Poincaré pour estimer β1 pour le cas général des chaines de Markov réversibles avec un nombre fini d'état. Dans cette thèse, nous utilisons la méthode de Shiu et Chen (2015) pour étudier le cas de l'algorithme de l'échantillonneur de Gibbs pour le modèle d'Ising unidimensionnel avec trois états ou plus appelé aussi modèle de Potts. Puis, nous généralisons le résultat de Shiu et Chen au cas du modèle d’Ising deux- dimensionnel avec deux états. Les résultats obtenus minorent ceux introduits par Ingrassia (1994). Puis nous avons pensé à perturber l'échantillonneur de Gibbs afin d’améliorer sa vitesse de convergence vers l'équilibre. / Monte Carlo Markov chain methods MCMC are mathematical tools used to simulate probability measures π defined on state spaces of high dimensions. The speed of convergence of this Markov chain X to its invariant state π is a natural question to study in this context.To measure the convergence rate of a Markov chain we use the total variation distance. It is well known that the convergence rate of a reversible Markov chain depends on its second largest eigenvalue in absolute value denoted by β!. An important part in the estimation of β! is the estimation of the second largest eigenvalue which is denoted by β1.Diaconis and Stroock (1991) introduced a method based on Poincaré inequality to obtain a bound for β1 for general finite state reversible Markov chains.In this thesis we use the Chen and Shiu approach to study the case of the Gibbs sampler for the 1−D Ising model with three and more states which is also called Potts model. Then, we generalize the result of Shiu and Chen (2015) to the case of the 2−D Ising model with two states.The results we obtain improve the ones obtained by Ingrassia (1994). Then, we introduce some method to disrupt the Gibbs sampler in order to improve its convergence rate to equilibrium.
85

Calibration de modèles financiers par minimisation d'entropie relative et modèles avec sauts

Nguyen, Laurent 18 December 2003 (has links) (PDF)
Le smile de volatilité implicite observé sur les marchés d'options traduit l'insuffisance du modèle de Black et Scholes. Avec la nécessité d'élaborer un modèle d'actif financier plus satisfaisant, vient celle de sa calibration, objet de cette thèse. <br />La calibration de modèles financiers par minimisation de lentropie relative a été proposée récemment dans le cadre de la méthode de Monte Carlo. On a étudié la convergence et la stabilité de cette méthode et on a étendu les résultats à des critères plus généraux que lentropie relative. La prise en compte des contraintes sur le sous-jacent assurant labsence dopportunité darbitrage a été abordée sous langle dun problème de moments.<br />Dans la seconde partie, on a considéré un modèle simple du phénomène de krach en introduisant en particulier des sauts dans la volatilité du sous-jacent. On a calculé le risque quadratique et effectué un développement approché du smile utile pour la calibration.<br />Finalement, dans la troisième partie, on utilise lentropie relative pour calibrer lintensité des sauts dun modèle de diffusion avec sauts et volatilité locale. La stabilité de la méthode a été prouvée grâce à des techniques de contrôle optimal ainsi quau théorème des fonctions implicites.
86

Simulation numérique du transport sédimentaire : aspects déterministes et stochastiques / Numerical simulation of the sediment transport : deterministic and stochastic aspects

Ung, Philippe 30 March 2016 (has links)
Dans cette thèse, nous nous intéressons à l'étude d'un modèle de transport de sédiments en nous plaçant sous deux angles d'approche différents. L'un concerne la modélisation numérique du problème et propose une méthode de résolution numérique basée sur un solveur de Riemann approché pour le système de Saint-Venant-Exner qui reste un des systèmes les plus répandus pour traiter le transport sédimentaire par charriage. Ce dernier repose sur un couplage du modèle hydraulique de Saint-Venant et du modèle morphodynamique d'Exner. Le point essentiel de la méthode proposée se situe au niveau du traitement du couplage de ce système. En effet, il existe deux stratégies; la première consiste à découpler la résolution de la partie fluide de la partie solide et les faire interagir à des instants donnés alors que la seconde considère une résolution couplée du système en mettant à jour conjointement les grandeurs hydrauliques et solides aux mêmes instants. Se posera alors la question du choix de la stratégie de résolution pour laquelle nous apporterons des éléments de réponses en comparant les deux approches. L'autre se concentre sur la mise en place d'une méthodologie pour l'étude des incertitudes liées au même modèle. Pour ce faire, nous proposons une formulation stochastique du système de Saint-Venant-Exner et nous cherchons à caractériser la variabilité des sorties par rapport aux paramètres d'entrée naturellement aléatoires. Cette première étude révélera la nécessité de revenir à un système de Saint-Venant avec un fond bruité pour étudier la sensibilité des grandeurs hydrauliques par rapport aux perturbations topographiques. / In this thesis, we are interested on the study of a sediment transport model through two different approaches. One of them concerns the numerical modelling of the problem and proposes a numerical problem-solving method based on an approximate Riemann solver for the Saint-Venant-Exner system which is one of the most common model to deal with sedimentary bed-load transport. This last one is based on a coupling between the hydraulic model of Saint-Venant and the morphodynamic model of Exner. The key point of the proposed method is the treatment of the coupling issue. Indeed, there exists two strategies; the first one consists on decoupling the resolution of the fluid part from the solid part and making them interact at fixed times whereas the second one considers a coupled approach to solve the system by jointly updating the hydraulic and solid quantities at same times. We then raise the issue of the choice of the strategy for which we suggest answers by comparing both approaches. The other one focuses on the development of a methodology to study the uncertainties related to the model previously mentioned. To this end, we propose a stochastic formulation of the Saint-Venant-Exner system and we look for characterizing the variabilities of the outputs in relation to the naturally random input parameters. This first study reveals the need for a return to the Saint-Venant system with a perturbed bed to understand the sensitivity of the hydraulic quantities on the topographical perturbations.
87

Numerical modeling and simulation of selective laser sintering in polymer powder bed / Modélisation numérique et simulation du frittage par laser dans les poudre polymère

Liu, Xin 28 February 2017 (has links)
La fabrication additive est l’un des secteurs industriels les plus en développent ces dernières années. L’une de ces technologies de fabrication les plus prometteuses est la fusion laser sélective (SLS), et relève d’un intérêt croissant aussi bien industriel qu’académique. Néanmoins, beaucoup de phénomène mis en jeu par ce procédé demeure non encore bien compris, entravant ainsi son développement pour la production de pièces de bonne qualité pour des applications industrielles. L’objectif de cette thèse est de développer un cadre de simulation numérique permettant la simulation du procédé SLS pour des poudres de polymère afin de comprendre les multiples et complexes phénomènes physiques qui se produise lors du frittage laser et d’étudier l’influence des paramètres du procédé sur la qualité du produit final. Contrairement aux approches classiques de modélisation numérique, basées sur la définition de matériaux homogène équivalents pour la résolution des équations de bilan, nous proposons une simulation globale du procédé du frittage laser de poudres, en utilisant la méthode des Eléments Discrets (DEM). Cela consiste en un couplage entre quatre sous-modèles : transferts radiatif dans le milieu granulaire semi-transparent, conduction thermique dans les milieux discrets, coalescence puis densification. Le modèle de transferts par rayonnement concerne l’interaction du faisceau laser avec le lit de poudre. Plusieurs phénomènes sont ainsi pris en compte, notamment la réflexion, la transmission, l’absorption et la réfraction. De plus, une méthode de Monte-Carlo couplée à la méthode du Lancer de rayons est développée afin d’étudier l’influence de la réfraction sur la distribution de l’énergie du laser dans le lit de poudre. Le modèle de conduction dans des milieux discrets décrit la diffusion thermique inter-particules. Finalement, le modèle de frittage décrit les cinétiques de coalescence et de diffusion de l’air dans le polymère et densification du milieu. Cela permet de décrire les cinétiques de fusion des grains, dont l’énergie de surface et la diffusons de l’air sont les deux moteurs principaux. Le couplage entre les différents modèles nous a permis de proposer un modèle numérique global, validé grâce à des comparaisons à des résultats de simulations théoriques et expérimentales, trouvés dans la littérature. Une analyse paramétrique est alors proposée pour la validation du modèle et l’étude du procédé. L’influence de différents paramètres aussi bien du procédé que du matériau sur le champ de température, la densité relative du matériau sa structure, etc , est ainsi investiguée. Les résultats montrent une bonne précision dans la modélisation des différents phénomènes complexes inhérents à ce procédé, et ce travail constitue un potentiel réel pour la modélisation et l’optimisation des procédés de fabrication additive par matériaux granulaires. / Many industrial and academic interests concerning the additive manufacturing processes are developed in the last decades. As one of the most promising technique of additive manufacturing, the Selective Laser Sintering (SLS) has been valued by both industry and academic. However, it remains that several phenomena are still not well understood in order to properly model the process and propose quality improvement of parts made. The goal of this Ph.D. project is to develop a framework of numerical simulation in order to model the SLS process in polymer powder bed, meanwhile understanding multiple physical phenomena occurring during the process and studying the influence of process parameters on the quality of final product. In contrast to traditional approach, based on the equivalent homogeneous material in numerical modeling of partial differential equations derived from conservation laws, we propose a global model to simulate powder-based additive manufacturing by using the Discrete Element method (DEM). It consists in a coupling between four different physical models: radiative heat transfer, discrete heat conduction, sintering and granular dynamics models. Firstly, the submodel of radiative heat transfer concerns the interaction between the laser beam and powder bed. Several phenomena are considered, including the reflection, transmission, absorption and scattering. Besides, a modified Monte Carlo ray-tracing method is developed in order to study the influence of scattering on the distribution of the deposited laser energy inside the powder bed Furthermore, the submodel of discrete heat conduction describes the inter-particles heat diffusion. Moreover, the sintering submodel concerns the phenomena of coalescence and air diffusion. It describes the melting kinetics of grains, driven by surface tension and the release of entrapped gases inside powder bed. Finally, the granular dynamics submodel concerns the motions and contacts between particles when depositing a new layer of powders. The coupling between these submodels leads to propose a global numerical framework, validated by comparing the results to both simulated and experimental ones from literatures. A parametric study is then proposed for model validation and process analysis. The Influence of different material and process parameters on the evolution of temperature, relative density and materials structure and characteristics are investigated. The results exhibit accurate modeling of the complex phenomena occurring during the SLS process, and the work constitute a great potential in modeling and optimization of additive processes.
88

Modélisation, représentation et résolution de problèmes de partage équitable de biens indivisibles soumis au risque / Fair allocation of risky indivisible items : representing, modeling and solving

Lumet, Charles 17 December 2012 (has links)
Le développement et l’utilisation de systèmes complexes multi-utilisateurs, ou encore la mise en réseau de systèmes d’observation ou d’information pose des problèmes complexes de partage de ressources entre les utilisateurs. La particularité de ces systèmes, impliquant plusieurs utilisateurs humains ou entités organisationnelles est que le partage des ressources doit satisfaire les préférences souvent antagonistes des utilisateurs et répondre à des exigences d’équité. Ce travail de thèse a pour objet l’étude des problèmes de partage de ressources indivisibles entre des agents ayant des préférences complexes sur ces ressources.Nous nous intéressons plus particulièrement à la modélisation de problèmes de partage en univers risqué.En effet, dans de nombreux problèmes d’allocation de ressources réels, la part revenant réellement à chaque agent après le partage de la ressource dépend de facteurs exogènes. C’est le cas par exemple dans les systèmes d’observation (satellitaires, capteurs embarqués,...), dans lesquels la réalisation d’une requête donnée dépend non seulement des conditions climatiques sur le secteur à observer, mais aussi du bon fonctionnement du capteur, de l’absence de brouillage du signal, etc. L’introduction de risque dans les problèmes de partage implique la redéfinition des notions classiques de choix social (utilité, absence d’envie, ...), et l’agrégation collective des préférences des agents s’en trouve compliquée. Au cours de ce travail de thèse, nous nous sommes tout d’abord intéressés à l’étude de cette extension au risque du formalisme associé aux problèmes de partage classiques : nous proposons un modèle simple de problèmes de partages de biens indivisibles en présence de risque, toutefois assez général pour rester proche des applications réelles considérées, et nous introduisons une extension générale des méthodes d’évaluation non risquées pour de tels partages. La seconde partie de ce travail de thèse porte sur l’algorithmique associée à ces problèmes, dont la résolution est notablement complexifiée par la présence de ressources risquées. Pour plusieurs critères d’évaluation (choisis car visant à garantir une certaine équité des solutions qu’ils suggèrent), nous proposons des algorithmes de résolution exacte et approchée des problèmes de partage associés. / The development and use of complex multi-user systems, or the networking of observation ou information systems raises complex resource allocation problems. The particularity of these systems, which involve several human users or organisational entities, rests in the fact that the share of resources must satisfy the often conflicting preferences of users and comply with equity exigences. This thesis deals with the problem of fairly allocating indivisible goods to a set of agents having complex preferences over these goods.We are more particularly interested in the modeling of fair allocation problems in a risky setting. In numerous real-world resource allocation problems, the actual share each agent receives after the allocation often depends on exogenous factors. This is for instance the case with the observation systems (satellites, embedded sensons, etc.) where the realisation of a request not only depends on weather conditions over the observation area, but also on the potential sensor malfunction, on the absence of jamming of the signal, etc. Introducing the risk in allocation problems implies the redefinition of classical social choice notions such as utility or envy-freeness for instance, and the collective aggregation of agents preferences becomes more complicated. We have studied in this thesis the extension of allocation problem formalism to a risky setting : we present a simple model for risky indivisible goods allocation problems, yet general enough to encompass most of the real-world applications, and we introduce a general extension of risk-free evalution methods for such allocations. The second part of the work concerns the algorithmical issues related to theses problems, whose resolution is significantly complexified because of the risky setting. Forseveral evaluation criteria (selected for the equity of the solutions they suggest) we present both exact and approached resolution algorithms for the related allocation problems.
89

Analyse radiative des photobioréacteurs / Radiative analysis of photobioreactors

Dauchet, Jérémi 07 December 2012 (has links)
L'ingénierie de la photosynthèse est une voie prometteuse en vue de produire à la fois des vecteurs énergétiques et des molécules plateformes pour palier la raréfaction des ressources fossiles. Le défi à relever est de taille car il faut réussir à mettre au point des procédés solaires de production de biomasse à constante de temps courte (quelques jours), là où une centaine de millions d'années a été nécessaire à la formation du pétrole. Cet objectif pourrait être atteint en cultivant des micro-organismes photosynthétiques dans des photobioréacteurs dont les performances cinétiques en surface et en volume seraient optimales. Une telle optimisation nécessite avant tout une analyse fine des transferts radiatifs au sein du procédé. L'analyse radiative des photobioréacteurs qui est ici proposée s'ouvre sur la détermination des propriétés d'absorption et de diffusion des suspensions de micro-organismes photosynthétiques, à partir de leurs caractéristiques morphologiques, métaboliques et structurales. Une chaîne de modélisation est construite, mise en oeuvre et validée expérimentalement pour des micro-organismes de formes simples ; à terme, la démarche développée pourra directement être étendue à des formes plus complexes. Puis, l'analyse du transfert radiatif en diffusion multiple est introduite et illustrée par différentes approximations qui apparaissent pertinentes pour une conceptualisation des photobioréacteurs, menant ainsi à la construction d'un intuitif nécessaire à leur optimisation. Enfin, la méthode de Monte Carlo est mise en oeuvre afin de résoudre rigoureusement la diffusion multiple en géométries complexes (géométries qui découlent d'une conception optimisée du procédé) et afin de calculer les performances cinétiques à l'échelle du photobioréacteur. Ce dernier calcul utilise une avancée méthodologique qui permet de traiter facilement le couplage non-linéaire du transfert radiatif à la cinétique locale de la photosynthèse (et qui laisse entrevoir de nombreuses autres applications dans d'autres domaines de la physique du transport). Ces outils de simulation mettent à profit les développements les plus récents autour de la méthode de Monte Carlo, tant sur le plan informatique (grâce à une implémentation dans l'environnement de développement EDStar) que sur le plan algorithmique : formulation intégrale, algorithmes à zéro-variance, calcul de sensibilités (le calcul des sensibilités aux paramètres géométriques est ici abordé d'une manière originale qui permet de simplifier significativement sa mise en oeuvre, pour un ensemble de configurations académiques testées). Les perspectives de ce travail seront d'utiliser les outils d'analyse développés durant cette thèse afin d'alimenter une réflexion sur l'intensification des photobioréacteurs, et d'étendre la démarche proposée à l'étude des systèmes photoréactifs dans leur ensemble. / Photosynthesis engineering is a promising mean to produce both energy carriers and fine chemicals in order to remedy the growing scarcity of fossil fuels. This is a challenging task since it implies to design process for solar biomass production associated with short time constant (few days), while oil formation took hundred million of years. This aim could be achieved by cultivating photosynthetic microorganisms in photobioreactors with optimal surface and volume kinetic performances. Above all, such an optimization necessitate a careful radiative study of the process. A radiative analysis of photobioreactors is here proposed that starts with the determination of the absorption and scattering properties of photosynthetic microorganisms suspensions, from the knowledge their morphological, metabolic and structural features. A model is constructed, implemented and validated for microorganisms with simple shapes ; the extension of this approach for the treatment of complex shapes will eventually be straightforward. Then, multiple scattering radiative transfer analysis is introduced and illustrated through different approximations that are relevant for the conceptualization of photobioreactors, leading to the construction of physical pictures that are necessary for the optimization of the process. Finally, the Monte Carlo method is implemented in order to rigorously solve multiple scattering in complex geometries (geometries that correspond to an optimized design of the process) and in order to calculate the kinetic performances of the reactor. In this trend, we develop a novel methodological development that simplies the treatment of the non-linear coupling between radiative transfer and the local kinetic of photosynthesis. These simulation tools also benefit from the most recent developments in the field of the Monte Carlo method : integral formulation, zero-variance algorithms, sensitivity evaluation (a specific approach for the evaluation of sensitivities to geometrical parameters is here developed and shown to correspond to a simple implementation in the case of a set of academic configurations that are tested). Perspectives of this work will be to take advantage of the developed analysis tools in order to stimulate the reflexion regarding photobioreactor intensification, and to extend the proposed approach to the study of photoreactive systems engineering in general.
90

Méthodes de Monte Carlo stratifiées pour l'intégration numérique et la simulation numériques / Stratified Monte Carlo methods for numerical integration and simulation

Fakhereddine, Rana 26 September 2013 (has links)
Les méthodes de Monte Carlo (MC) sont des méthodes numériques qui utilisent des nombres aléatoires pour résoudre avec des ordinateurs des problèmes des sciences appliquées et des techniques. On estime une quantité par des évaluations répétées utilisant N valeurs et l'erreur de la méthode est approchée par la variance de l'estimateur. Le présent travail analyse des méthodes de réduction de la variance et examine leur efficacité pour l'intégration numérique et la résolution d'équations différentielles et intégrales. Nous présentons d'abord les méthodes MC stratifiées et les méthodes d'échantillonnage par hypercube latin (LHS : Latin Hypercube Sampling). Parmi les méthodes de stratification, nous privilégions la méthode simple (MCS) : l'hypercube unité Is := [0; 1)s est divisé en N sous-cubes d'égale mesure, et un point aléatoire est choisi dans chacun des sous-cubes. Nous analysons la variance de ces méthodes pour le problème de la quadrature numérique. Nous étudions particulièrment le cas de l'estimation de la mesure d'un sous-ensemble de Is. La variance de la méthode MCS peut être majorée par O(1=N1+1=s). Les résultats d'expériences numériques en dimensions 2,3 et 4 montrent que les majorations obtenues sont précises. Nous proposons ensuite une méthode hybride entre MCS et LHS, qui possède les propriétés de ces deux techniques, avec un point aléatoire dans chaque sous-cube et les projections des points sur chacun des axes de coordonnées également réparties de manière régulière : une projection dans chacun des N sousintervalles qui divisent I := [0; 1) uniformément. Cette technique est appelée Stratification Sudoku (SS). Dans le même cadre d'analyse que précédemment, nous montrons que la variance de la méthode SS est majorée par O(1=N1+1=s) ; des expériences numériques en dimensions 2,3 et 4 valident les majorations démontrées. Nous présentons ensuite une approche de la méthode de marche aléatoire utilisant les techniques de réduction de variance précédentes. Nous proposons un algorithme de résolution de l'équation de diffusion, avec un coefficient de diffusion constant ou non-constant en espace. On utilise des particules échantillonnées suivant la distribution initiale, qui effectuent un déplacement gaussien à chaque pas de temps. On ordonne les particules suivant leur position à chaque étape et on remplace les nombres aléatoires qui permettent de calculer les déplacements par les points stratifiés utilisés précédemment. On évalue l'amélioration apportée par cette technique sur des exemples numériques Nous utilisons finalement une approche analogue pour la résolution numérique de l'équation de coagulation, qui modélise l'évolution de la taille de particules pouvant s'agglomérer. Les particules sont d'abord échantillonnées suivant la distribution initiale des tailles. On choisit un pas de temps et, à chaque étape et pour chaque particule, on choisit au hasard un partenaire de coalescence et un nombre aléatoire qui décide de cette coalescence. Si l'on classe les particules suivant leur taille à chaque pas de temps et si l'on remplace les nombres aléatoires par des points stratifiés, on observe une réduction de variance par rapport à l'algorithme MC usuel. / Monte Carlo (MC) methods are numerical methods using random numbers to solve on computers problems from applied sciences and techniques. One estimates a quantity by repeated evaluations using N values ; the error of the method is approximated through the variance of the estimator. In the present work, we analyze variance reduction methods and we test their efficiency for numerical integration and for solving differential or integral equations. First, we present stratified MC methods and Latin Hypercube Sampling (LHS) technique. Among stratification strategies, we focus on the simple approach (MCS) : the unit hypercube Is := [0; 1)s is divided into N subcubes having the same measure, and one random point is chosen in each subcube. We analyze the variance of the method for the problem of numerical quadrature. The case of the evaluation of the measure of a subset of Is is particularly detailed. The variance of the MCS method may be bounded by O(1=N1+1=s). The results of numerical experiments in dimensions 2,3, and 4 show that the upper bounds are tight. We next propose an hybrid method between MCS and LHS, that has properties of both approaches, with one random point in each subcube and such that the projections of the points on each coordinate axis are also evenly distributed : one projection in each of the N subintervals that uniformly divide the unit interval I := [0; 1). We call this technique Sudoku Sampling (SS). Conducting the same analysis as before, we show that the variance of the SS method is bounded by O(1=N1+1=s) ; the order of the bound is validated through the results of numerical experiments in dimensions 2,3, and 4. Next, we present an approach of the random walk method using the variance reduction techniques previously analyzed. We propose an algorithm for solving the diffusion equation with a constant or spatially-varying diffusion coefficient. One uses particles, that are sampled from the initial distribution ; they are subject to a Gaussian move in each time step. The particles are renumbered according to their positions in every step and the random numbers which give the displacements are replaced by the stratified points used above. The improvement brought by this technique is evaluated in numerical experiments. An analogous approach is finally used for numerically solving the coagulation equation ; this equation models the evolution of the sizes of particles that may agglomerate. The particles are first sampled from the initial size distribution. A time step is fixed and, in every step and for each particle, a coalescence partner is chosen and a random number decides if coalescence occurs. If the particles are ordered in every time step by increasing sizes an if the random numbers are replaced by statified points, a variance reduction is observed, when compared to the results of usual MC algorithm.

Page generated in 0.0698 seconds