Spelling suggestions: "subject:"multiéchelle"" "subject:"multiéchelle""
221 |
Traitement de données multi-spectrales par calcul intensif et applications chez l'homme en imagerie par résonnance magnétique nucléaire / Processing of multi-spectral data by high performance computing and its applications on human nuclear magnetic resonance imagingAngeletti, Mélodie 21 February 2019 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf) étant une technique non invasive pour l'étude de cerveau, elle a été employée pour comprendre les mécanismes cérébraux sous-jacents à la prise alimentaire. Cependant, l'utilisation de stimuli liquides pour simuler la prise alimentaire engendre des difficultés supplémentaires par rapport aux stimulations visuellement habituellement mises en œuvre en IRMf. L'objectif de cette thèse a donc été de proposer une méthode robuste d'analyse des données tenant compte de la spécificité d'une stimulation alimentaire. Pour prendre en compte le mouvement dû à la déglutition, nous proposons une méthode de censure fondée uniquement sur le signal mesuré. Nous avons de plus perfectionné l'étape de normalisation des données afin de réduire la perte de signal. La principale contribution de cette thèse est d'implémenter l'algorithme de Ward de sorte que parcelliser l'ensemble du cerveau soit réalisable en quelques heures et sans avoir à réduire les données au préalable. Comme le calcul de la distance euclidienne entre toutes les paires de signaux des voxels représente une part importante de l'algorithme de Ward, nous proposons un algorithme cache-aware du calcul de la distance ainsi que trois parallélisations sur les architectures suivantes : architecture à mémoire partagée, architecture à mémoire distribuée et GPU NVIDIA. Une fois l'algorithme de Ward exécuté, il est possible d'explorer toutes les échelles de parcellisation. Nous considérons plusieurs critères pour évaluer la qualité de la parcellisation à une échelle donnée. À une échelle donnée, nous proposons soit de calculer des cartes de connectivités entre les parcelles, soit d'identifier les parcelles répondant à la stimulation à l'aide du coefficient de corrélation de Pearson. / As a non-invasive technology for studying brain imaging, functional magnetic resonance imaging (fMRI) has been employed to understand the brain underlying mechanisms of food intake. Using liquid stimuli to fake food intake adds difficulties which are not present in fMRI studies with visual stimuli. This PhD thesis aims to propose a robust method to analyse food stimulated fMRI data. To correct the data from swallowing movements, we have proposed to censure the data uniquely from the measured signal. We have also improved the normalization step of data between subjects to reduce signal loss.The main contribution of this thesis is the implementation of Ward's algorithm without data reduction. Thus, clustering the whole brain in several hours is now feasible. Because Euclidean distance computation is the main part of Ward algorithm, we have developed a cache-aware algorithm to compute the distance between each pair of voxels. Then, we have parallelized this algorithm for three architectures: shared-memory architecture, distributed memory architecture and NVIDIA GPGPU. Once Ward's algorithm has been applied, it is possible to explore multi-scale clustering of data. Several criteria are considered in order to evaluate the quality of clusters. For a given number of clusters, we have proposed to compute connectivity maps between clusters or to compute Pearson correlation coefficient to identify brain regions activated by the stimulation.
|
222 |
Modélisation multi-échelle de la combustion d'un nuage de particules / Multiscale modeling of the combustion of a cloud of particlesBelerrajoul, Mohamed 06 February 2019 (has links)
La présence de fines particules de matières oxydables est rencontrée dans de nombreuses situations industrielles. Le risque d'explosion de poussières présente une menace constante pour les industries de transformation qui fabriquent, utilisent ou manipulent des poudres ou despoussières de matières combustibles. Dans le secteur nucléaire, les scénarios envisagés traitent,en particulier, le risque d'explosion de poussières de graphite liées aux opérations dedémantèlement des réacteurs Uranium Naturel Graphite Gaz. La problématique considérée, dans le cadre de ce travail de thèse, est celle de la combustion d'un mélange dilué gaz-particules.L'objectif de cette thèse est de développer un modèle Euler-Lagrange macroscopique permettantde prédire la vitesse laminaire de flamme qui est une des données essentielles pour les modèlesde vitesse de flamme turbulente utilisés dans l'évaluation des risques d'explosion de poussières.Dans un premier temps, les équations macroscopiques de transferts massique et thermique sont dérivées à partir de la méthode de prise de moyenne volumique. L'intérêt de l'approche utilisée ici est de proposer des problèmes de fermeture permettant d'estimer les coefficients de transfertseffectifs, tels que les coefficients d'échanges thermiques et le coefficient effectif de la réactionhétérogène. Dans un deuxième temps, des simulations Euler-Lagrange sont utilisées pourdéterminer la vitesse de flamme laminaire diphasique plane en fonction des caractéristiques du mélange gazeux et des poussières de graphite. Le modèle proposé dans ce travail est comparé au modèle Euler-Lagrange classique basé sur la résolution du problème de couche limite pourune particule isolée en milieu infini. Cette étude montre que les effets du taux de dilution et deséchanges indirects entre les particules ne sont pas systématiquement négligeables dans leséchanges macroscopiques entre les deux phases. D'autre part, la présente étude laisse entrevoir la potentialité de l'approche proposée pour les simulations détaillées de l'écoulement diphasique / The presence of fine particles of oxidizable materials is encountered in many industrial situations.The risk of dust explosion presents a constant threat in transformation industries that manufacture,use or manipulate powders or combustible materials dusts. In nuclear safety analysis, one of themain scenarios is the risk of graphite dust explosion that may occur during decommissioningoperations of Uranium Natural Graphite Gas reactors. The issue considered in this thesis isrelated to combustion of a dilute gas-particle mixture. This work aims at developing a macroscopicEuler-Lagrange model for predicting laminar flame velocity, which is one of the essential data forturbulent flame velocity models used to evaluate the risk of dust explosion. First, the macroscopicheat and mass transfer equations are derived using the volume averaging method. The majorinterest of the proposed approach is to provide closure problems that allow to estimate theeffective transport coefficients, such as heat exchange coefficients and the effective coefficient ofthe heterogeneous reaction. Second, Euler-Lagrange simulations are used to determine the planetwo-phase laminar flame velocity as a function of gas mixture and graphite dust characteristics.The proposed model is compared to the classical Euler-Lagrange model based on the resolutionof the boundary layer problem in the vicinity of an isolated particle in infinite medium. Results showthat the dilution rate and the indirect particle-particle exchanges are not systematically negligible inthe macroscopic exchanges between the two-phases. On the other hand, this study suggests thepotentiality of the proposed approach for detailed simulations of two-phase flow
|
223 |
Etude mathématique des problèmes paraboliques fortement anisotropes / Mathematical study of highly anisotropic parabolic problemsBlanc, Thomas 04 December 2017 (has links)
Ce manuscrit de thèse traite de l'analyse asymptotique de problèmes paraboliques possédant des termes raides. Dans un premier temps, on fait l'analyse asymptotique d'un système parabolique possédant des termes de transport raide. Une analyse à deux échelles, basée sur des résultats de théorie ergodique, nous permet de dériver un système limite effectif. Ce système effectif se trouve être, de nouveau, un système parabolique dont le champ de diffusion peut être explicité par une moyenne du champ de diffusion initial le long d'un groupe d'opérateurs unitaires. L'introduction d'un correcteur nous permet d'obtenir un résultat de convergence forte, avec un ordre de convergence, pour des données initiales non nécessairement bien préparées. On propose dans un second temps une méthode numérique permettant de calculer le champ de diffusion effectif. Celle-ci est basée sur la combinaison d'un schéma Runge-Kutta et d'un schéma de type semi-Lagrangien. L'ordre de convergence obtenu théoriquement est mis en évidence de manière numérique. On propose une méthode numérique basée sur un splitting d'opérateur pour la résolution du système parabolique avec termes de transport raide. Enfin, on effectue l'analyse asymptotique d'un système parabolique fortement anisotrope. Sous de bonnes hypothèses de régularité, un système variationnel effectif est proposé et l'introduction d'un correcteur adapté permet d'obtenir un résultat de convergence forte avec un ordre de convergence. Les arguments utilisés relèvent une nouvelle fois de l'analyse à deux échelles et de la théorie ergodique. / This manuscript is devoted to the asymptotic analysis of parabolic equations with stiff terms. First, we perform the asymptotic analysis of a parabolic equation with stiff transport terms. An effective limit model is obtained by a two-scale analysis based on ergodic theory results. This effective system is again a parabolic system whose diffusion field is an average of the initial diffusion field along a group of unitary operators. The introduction of a corrector allows us to obtain a strong convergence result, with an order of convergence, for initial data not necessarily well prepared. We propose a numerical method to compute the effective diffusion field. This method is based on a Runge-Kutta scheme and a semi-Lagrangian scheme. The theoretically order of convergence is obtained numerically. We propose a numerical method based on operator splitting for the resolution of the parabolic system with stiff transport terms. Finally, we perform the asymptotic analysis of a strongly anisotropic parabolic problem. Under suitable smoothness hypotheses, an effective variational system is proposed. By using a suitable corrector, we obtain a strong convergence result and we are able to perform the error analysis. The arguments relate again to the two-scale analysis and the ergodic theory.
|
224 |
Méthode de simulation appropriée aux systèmes complexes : preuve de concept auto-adaptative et auto-apprenante appliquée aux transferts thermiques / Suitable method for complex systems simulation : self-adaptive and self-learning proof-of-concept applied to coupled heat transferSpiesser, Christophe 20 June 2017 (has links)
L’augmentation de la puissance informatique disponible permet aux ingénieurs et designers d’aborder par simulation des problèmes de plus en plus complexes (multi-physiques, multi-échelles, géométries intriquées ...). Dans ce contexte, les quadratures à base de discrétisation (FDM, FEM, FVM) montrent leur limite : le besoin d’un grand nombre de sous-domaines qui implique des coûts RAM et CPU prohibitifs. La méthode de Monte-Carlo apparaît plus appropriée, mais son utilisation est verrouillée par la difficulté de générer des modèles probabilistes de systèmes complexes. Pour surpasser ceci, une approche systémique est proposée et implémentée pour créer une preuve de concept appliquée à la simulation des transferts thermiques couplés. Après une étape de validation vis-à-vis de solutions analytiques, l’outil est employé; sur des cas d’illustration (transferts thermiques au sein de bâtiments et dans une centrale solaire) pour étudier ses capacités. L’approche mise en œuvre présente un comportement particulièrement avantageux pour la simulation de systèmes complexes : son temps de calcul ne dépend que des parties influentes du problème. De plus, elles sont automatiquement identifiées, même en présence de géométries étendues ou intriquées, ce qui rend les simulations auto-adaptatives. Par ailleurs, ses performances de calcul ne sont pas corrélées avec le rapport d’échelle caractérisant le système simulé. Ceci en fait une approche douée d’une remarquable capacité à traiter les problèmes à la fois multi-physiques et multi-échelles. En parallèle de l’estimation d’une observable par des chemins d’exploration, l’outil analyse également ces derniers de manière statistique. Ceci lui permet de générer un modèle prédictif réduit de l’observable, procurant ainsi une capacité d’auto-apprentissage à la simulation. Son utilisation peut améliorer les processus d’optimisation et de contrôle-commande, ou simplifier les mesures par méthodes inverses. De plus, elle a aussi permis de mener une analyse par propagation d’incertitudes, affectant les conditions aux frontières, vers l’observable. Enfin, une démonstration d’optimisation, utilisant des modèles réduits générés, a été réalisée. / As computing power increases, engineers and designers tackle increasingly complex problems using simulation (multiphysics, multiscale, intricated geometries ...). In this context, discretization-based quadratures (FDM, FEM, FVM) show their limit: the need of a great number of sub-domains which induces prohibitive consumption of RAM and CPU power. The Monte Carlo method appears to be more appropriate, but the difficulty to build probabilistic models of complex systems forms a bottleneck. A systemic approach is proposed to alleviate it and is implemented to create a proof-of-concept dedicated to the coupled heat transfer simulation. After a successful validation step against analytical solutions, this tool is applied to illustrative cases (emulating heat transfer in buildings and in solar heating systems) in order to study its simulation capabilities.This approach presents a major beneficial behavior for complex systems simulation: the computation time only depends on the influential parts of the problem. These parts are automatically identified, even in intricate or extensive geometries, which makes the simulation self-adaptive. In addition, the computational performance and the system scale ratio are completely uncorrelated. Consequently, this approach shows an exceptional capacity to tackle multiphysics and multiscale problems. Each temperature is estimated using exploration paths. By statistically analyzing these paths during the process, the tool is able to generate a reduced predictive model of this physical quantity, which is bringing a self-learning capacity to the simulation. Its use can significantly improve optimization and control of processes, or simplify inverse measurements. Furthermore, based on this model, an uncertainty propagation analysis has been performed. It quantifies the effect of uncertainties affecting boundary conditions on the temperature. Finally a Particle Swarm Optimization (PSO) process, based on simulations done by the framework, is successfully carried out.
|
225 |
Modélisation multi-échelle de l'insertion du 3H et du 36Cl dans les graphites UNGG / Multi-scale Modeling of the Insertion and Diffusion of 3H and 36Cl in UNGG graphiteLechner, Christoph 24 January 2018 (has links)
Au cours des prochaines années, neuf centrales nucléaires de type UNGG (Uranium Naturel Graphite Gaz) devront être démantelées en France. Ces centrales utilisent le graphite comme modérateur et réflecteur de neutrons. Pendant leur exploitation, celui-ci est activé. Leur démantèlement conduira à 23000 tonnes de déchets de graphite irradiés à gérer. Ce travail focalise sur deux radionucléides contenus dans ces déchets : le 36Cl et le 3H. Le 36Cl a l'une des demi-vies les plus longues (301 000 ans). Par contre, le 3H a une demi-vie plus courte (12 ans), mais contribue beaucoup à l'activité initiale des déchets. Différentes données expérimentales suggèrent que le 36Cl et le 3H sont piégés à différents endroits du graphite, comme les boucles de dislocation, les surfaces ou les joints de grains. Le seul mécanisme de migration des radionucléides est le relâchement. Pour cette raison, il est important de comprendre quels sont les pièges et les différentes conditions du relâchement.Le graphite UNGG a une structure complexe, hétérogène et multi-échelle qui diffère du monocristal idéal du graphite. Cependant, pour comprendre les données macroscopiques, les études théoriques à l'échelle nanoscopique et microscopique sont des outils importants, même si elles reposent sur des modèles plus simples. Dans cette thèse, une approche multi-échelle a été utilisée afin d’étudier les interactions des radionucléides avec le graphite ainsi que les mécanismes de diffusion et de piégeage à l'échelle du nm-μm.Les interactions du 3H et du 36Cl avec différents défauts du graphite ont été étudiées dans le cadre de la théorie fonctionnelle de la densité (DFT). L'hydrogène forme une liaison covalente avec le graphite massique ainsi qu'avec ses surfaces (001), (100) et (110). Plusieurs reconstructions de surface ont été explorées. Les résultats montrent que les hypothèses existantes sur le piégeage de l'hydrogène doivent être affinées. Le comportement du Cl est plus complexe. Sa chimisorption est observée sur les surfaces (100) et (110). Cependant, sur la surface (001), le Cl interagit par transfert de charge. Le Cl2 n'interagit que par interactions de van der Waals avec celle-ci. Le Cl2 se dissocie dans le graphite massique.Les diffusions du H et du Cl dans le graphite irradié ont été étudiées en effectuant des simulations de dynamique moléculaire. Les résultats ab initio ont été utilisés pour développer des potentiels de type « bond order » afin de modéliser l'interaction des radionucléides avec la matrice de graphite, qui possède des contributions à court et à long portée. Pour le Cl, un nouveau potentiel a été paramétré qui reproduit toutes les données obtenues au niveau DFT. Pour les interactions 3H-graphite, les potentiels AIREBO/M, pour les interactions C-H, et LCBOP, pour les interactions C-C, ont été utilisés.Pour évaluer l'influence de la structure complexe du graphite UNGG sur le comportement des radionucléides, plusieurs modèles atomiques ont été utilisés pour rendre compte de cette diversité, tels que les surfaces, les joints de grains et les nanopores.Pour le Cl, des simulations d'irradiation ont été réalisées pour une gamme d’énergie allant de 1 à 10 keV et une gamme de température de 200 à 500ºC. Les dépendances à la température et à la direction d'irradiation ont été étudiées. D’une façon générale, les dommages causés par l'irradiation perpendiculaire aux surfaces augmentent avec la température. L'irradiation à des angles d’incidence <90º aux surfaces peut causer plus ou moins de dommages par rapport à l'irradiation perpendiculaire selon le type de surface.Les diffusions du H et du Cl montrent que tous les bords de cristallites avec des liaisons pendantes sont des pièges. Pour le Cl, la diffusion dans le graphite nanoporeux a révélé deux emplacements préférés: les bords des cristallites où le Cl forme une liaison covalente et les coins des microfissures où le Cl interagit par transfert de charge. / In the upcoming years, nine nuclear UNGG (Uranium Naturel Graphite Gaz) power plants will have to be dismantled in France. In these power plants, nuclear graphite was used as a neutron moderator and reflector, and was activated during operation. The dismantlement will lead to 23000 tons of irradiated graphite waste, which will have to be managed. The graphite is classified as a nuclear waste containing radionuclides with low activity and long half-life. Two radionuclides are the focus of this work: 36Cl and 3H. 36Cl has one of the longest half-lives (about 301000 years) among the waste's radionuclides. 3H has a shorter half-life (12 years), but contributes significantly to the waste’s initial activity. Previous experiments suggest that both, 36Cl and 3H, are mainly fixed at different traps in graphite, which are defective structures, such as dislocation loops, surfaces, or grain boundaries. Since the only significant migration mechanism of these radionuclides is release, it is important to understand where the traps are located and the conditions of the release.UNGG graphite has a complex heterogeneous multi-scale structure which differs substantially from an ideal monocrystal of graphite. However, in order to understand macroscopic data, theoretical studies at the nano- and microscopic scale are an important tool to explain underlying phenomena even though they rely on simpler models due to the limitations of computation power. A multi-scale approach was therefore applied to study the local interactions of the radionuclides with graphite as well as diffusion and trapping mechanisms on the nm-μm length scale.First, the interaction of 3H and 36Cl with defects in graphite was studied with density functional theory (DFT). Hydrogen interacts covalently with bulk graphite as well as with the studied surfaces (001), (100), and (110). Several surface reconstructions were investigated: arch-type reconstructions and in-plane reconstructions. The results show that the existing hypothesis on the trapping of hydrogen needs to be refined. The behavior of Cl is more complex. On the (100) and (110) surface chemisorption is observed. However, on the (001) surface a strong charge transfer interaction is observed for Cl. In contrast to that, Cl2 only interacts via weak van der Waals interactions with this surface. In bulk graphite Cl2 dissociates.The diffusion of H and Cl in irradiated graphite has been investigated by performing molecuar dynamics simulations. The ab initio results were used to develop bond order potentials to model the interaction of radionuclides and the graphite matrix, which attributes for short and long range interactions. For Cl, a new potential has been parameterized which is able to describe all aspects obtained with DFT. For the 3H-graphite interactions, the bond order potential AIREBO/M was used for C-H interactions. For C-C interactions the LCBOP potential was used.To evaluate the influence of the complex heterogeneous structure of the UNGG graphite on the radionuclide's behavior, several different atomic models were studied to account for this diversity such as surfaces, grain boundaries and nanopores.For Cl, irradiation simulations of different systems were performed up to an energy of 10 keV for the primary knock-on atom (PKA), and in a temperature range of 200 to 500ºC. The dependence on temperature and irradiation direction was investigated. In general, direct irradiation damage increases with temperature. Irradiation at incident angles <90º can create more or less damage compared to the perpendicular one depending on the surface type.Diffusion of H and Cl along surfaces shows that all crystallite edges with dangling bonds can serve as traps. For Cl, diffusion in nanoporous graphite revealed two preferred locations : First, the crystallite edges where Cl forms strong covalent; second, the corners of microcracks where Cl interacts via charge transfer.
|
226 |
Fatigue models for life prediction of structures under multiaxial loading with variation in time and space. / Tenue des structures en fatigue multiaxiale : prise en compte des variations de chargement en temps et en espaceMa, Zepeng 18 December 2017 (has links)
L'objet de ce travail est de proposer une approche multi-échelle de la fatigue fondée sur l'énergie, et susceptible d'estimer les durées de vie associées à des chargements multidimensionnels variables. Le fondement de la démarche consiste à supposer que l'énergie dissipée à petite échelle régit le comportement à la fatigue. À chaque point matériel, est associée une distribution stochastique de points faibles qui sont susceptibles de plastifier et de contribuer à la dissipation d'énergie sans affecter des contraintes macroscopiques globales. Ceci revient à adopter le paradigme de Dang Van en fatigue polycyclique. La structure est supposée élastique (ou adaptée) à l'échelle macroscopique. De plus, on adopte à l'échelle mésoscopique un comportement élastoplastique avec une dépendance de la fonction de charge plastique non seulement de la partie déviatorique des contraintes, mais aussi de la partie hydrostatique. On considère également un écrouissage cinématique linéaire sous l'hypothèse d'une plasticité associée. Au lieu d'utiliser le nombre de cycles comme variable incrémentale, le concept d'évolution temporelle du chargement est adopté pour un suivi précis de l'historique du chargement réel. L'effet de la contrainte moyenne est pris en compte dans la fonction de charge mésoscopique ; une loi de cumul non linéaire de dommage est également considérée dans le modèle. La durée de vie à la fatigue est ensuite déterminée à l'aide d'une loi de phénoménologique fondée sur la dissipation d'énergie mésoscopique issue du cycle d'accommodation plastique. La première partie du travail a porté sur une proposition d'un modèle de fatigie à gradient de mise en oeuvre plus simple que les précédents modèles. / The aim of this work is to propose a multi-scale approach to energy-based fatigue, which can estimate lifetimes associated with variable multidimensional loading. The foundation of the approach is to assume that the energy dissipated on a small scale governs the fatigue behavior. Each material point is associated to a stochastic distribution of weak points that are likely to plasticize and contribute to the dissipation of energy without affecting global macroscopic stresses. This amounts to adopting Dang Van's paradigm of high cycle fatigue. The structure is supposed to be elastic (or adapted) on a macroscopic scale. In addition, we adopt on the mesoscopic scale an elastoplastic behavior with a dependence of the plastic load function not only of the deviatoric part of the stresses, but also of the hydrostatic part. Linear kinematic hardening is also considered under the assumption of an associated plasticity. Instead of using the number of cycles as an incremental variable, the concept of temporal evolution of the load is adopted for a precise follow-up of the history of the actual loading. The effect of mean stress is taken into account in the mesoscopic yield function; a law of nonlinear accumulation of damage is also considered in the model. Fatigue life is then determined using a phenomenological law based on mesoscopic energy dissipation from the plastic accommodative cycle. The first part of the work focused on a proposal for a fatigue model with a simpler implementation gradient than the previous models.
|
227 |
Transferts et réactivité de l’huile au cours du procédé de friture / Oil-related mass transfer and reactivities during deep frying processTouffet, Maxime 29 August 2018 (has links)
La friture profonde de type batch a été étudiée dans le projet FUI Fry’In (Réf. AAP17, 2014-2018) dans le but de proposer des innovations de rupture pour des friteuses batch domestiques et professionnelles. La thèse a appuyé le projet sur la maîtrise de deux effets négatifs de la friture : i) la thermo-oxydation de l’huile responsable des mauvaises odeurs et produits de dégradation ainsi que ii) la prise d’huile généralement favorisée au détriment de son égouttage. L’étude a été réalisée en combinant des mesures directes (spectroscopie et imagerie infrarouges en mode ATR, photo-ionisation, mesures DSC, imagerie rapide…) et modélisation multi-échelle (écoulement de l’huile et égouttage lors du retrait, description lagrangienne des réactions en présence d’un écoulement, couplage avec les ciné-tiques de dissolution de l’oxygène). La complexité du processus de thermo-oxydation a été réduite en considérant les hydroperoxydes comme une forme de stockage organique de l’oxygène, qui propage l’oxydation dans des régions en anoxie. Leur décomposition produit de nombreux composés de scission, dont la nature est influencée par les conditions locales de température et de concentration en oxygène. La prise d’huile a été décrite comme le bilan net entre l’huile charriée au moment du retrait et l’huile égouttée. L’égouttage a été étudié sur des barreaux métalliques et des produits réels. Il se conduit à la formation de quatre à huit gouttes en quelques secondes. Les cinétiques de drainage anisothermes ont été prédites par un modèle mécanistique. Le mécanisme spécifique de prise d’huile en cours de friture a été aussi analysé ; il se produit uniquement dans le cas des produits préfrits congelés. / Batch deep-frying has been investigated within the collaborative project FUI Fry’In (ref. AAP17, 2014-2018) with the aim of proposing breakthrough innovations for small and medium size appliances. The PhD thesis was part of the project and focused on two specific adverse effects of deep-frying on food products: oil thermo-oxidation responsible for break-down products and off-flavors, and oil pickup process usually favored relatively to oil dripping. The work was carried out by combing direct measurements (FTIR-ATR spectroscopy and imaging, photoionization, DSC measurements, fast imaging…) and multiscale modeling (oil flow and oil dripping during product re-moval, Lagrangian description of reactions in aniso-thermal flows, coupling with oxygen dissolution kinetics). The complex problem of thermo-oxidation was split into simpler mechanisms by noticing that hydroperoxides are a kind of long-lived form of or-ganic oxygen, which trigger propagation in deep re-gions under anoxia. Their decomposition lead to various scission products, which were shown to be in-fluenced by both local temperature and oxygen con-centration. Oil uptake was described as the net balance between the amount of dragged oil during product removal and oil dripping at the tips of the product. The dripping process studied on both metal-lic sticks and real products occurs in less than few seconds and leads to a formation of four to eight drop-lets. The detailed drainage kinetics in anisothermal conditions were captured and predicted with the pro-posed mechanistic models. The specific mechanism of oil uptake during the immersion stage was eluci-dated and was shown to occur only in parfried frozen products.
|
228 |
Exemplar based texture synthesis : models and applications / Synthèse de texture à partir d’exemples : modèles et applicationsRaad cisa, Lara 03 October 2016 (has links)
Cette thèse s’attaque au problème de la synthèse de texture par l’exemple en utilisant des modèles stochastiques locaux de patchs pour générer de nouvelles images. La synthèse de texture par l’exemple a pour but de générer à partir d’un échantillon de texture de nouvelles images qui sont perceptuellement équivalentes à celle de départ. Les méthodes peuvent se regrouper en deux catégories: les méthodes paramétriques et les non paramétriques à base de patchs. Le premier groupe a pour but de caractériser une image de texture à partir d’un ensemble de statistiques qui définissent un processus stochastique sous-jacent. Les résultats visuels de ces méthodes sont satisfaisants, mais seulement pour un groupe réduit de types de texture. La synthèse pour des images de textures ayant des structures très contrastées peut échouer. La deuxième catégorie d’algorithme découpe, puis recolle de manière consistante des voisinages locaux de l’image de départ pour générer de nouvelles configurations plausibles de ces voisinages (ou patchs). Les résultats visuels de ces méthodes sont impressionnants. Néanmoins, on observe souvent des répétitions verbatim de grandes parties de l’image d’entrée qui du coup peuvent être reproduites plusieurs fois. De plus, ces algorithmes peuvent diverger, reproduisant de façon itérative une partie de l’image de l’entrée en négligeant le reste. La première partie de cette thèse présente une approche combinant des idées des deux catégories de méthodes, sous le nom de synthèse localement Gaussienne. On préserve dans cette nouvelle méthode les aspects positifs de chaque approche: la capacité d’innover des méthodes paramétriques, et la capacité de générer des textures fortement structurées des méthodes non paramétriques à base de patchs. Pour ce faire, on construit un modèle Gaussien multidimensionnel des auto-similarités d’une image de texture. Ainsi, on obtient des résultats qui sont visuellement supérieurs à ceux obtenus avec les méthodes paramétriques et qui sont comparables à ceux obtenus avec les méthodes non-paramétriques à base de patchs tout en utilisant une paramétrization locale de l’image. La thèse s’attache aussi à résoudre une autre difficulté des méthodes à base de patchs: le choix de la taille du patch. Afin de réduire significativement cette dépendance, on propose une extension multi échelle de la méthode. Les méthodes à bases de patchs supposent une étape de recollement. En effet, les patchs de l’image synthétisée se superposent entre eux, il faut donc gérer le recollement dans ces zones. La première approche qu’on a considérée consiste à prendre en compte cette contrainte de superposition dans la modélisation des patchs. Les expériences montrent que cela est satisfaisant pour des images de textures périodiques ou pseudo-périodiques et qu’en conséquence l’étape de recollement peut être supprimée pour ces textures. Cependant, pour des images de textures plus complexes ce n’est pas le cas, ce qui nous a menée à suggérer une nouvelle méthode de recollement inspirée du transport optimal. Cette thèse conclut avec une étude complète de l’état de l’art en génération d’images de textures naturelles. L’étude que nous présentons montre que, malgré les progrès considérables des méthodes de synthèse à base d’exemples proposées dans la vaste littérature, et même en les combinant astucieusement, celles-ci sont encore incapables d’émuler des textures complexes et non stationnaires. / This dissertation contributes to the problem of exemplar based texture synthesis by introducing the use of local Gaussian patch models to generate new texture images. Exemplar based texture synthesis is the process of generating, from an input texture sample, new texture images that are perceptually equivalent to the input. There are roughly two main categories of algorithms: the statistics based methods and the non parametric patch based methods. The first one aims to characterize a given texture sample by estimating a set of statistics which will define an underlying stochastic process. The results of this kind of methods are satisfying but only on a small group of textures, failing when important structures are visible in the input provided. The second category methods reorganize local neighborhoods from the input sample in a consistent way creating new texture images. These methods return impressive visual results. Nevertheless, they often yield verbatim copies of large parts of the input sample. Furthermore, they can diverge, starting to reproduce iteratively one part of the input sample and neglecting the rest of it, thus growing ``garbage''. In this thesis we propose a technique combining ideas from the statistic based methods and from the non parametric patch based methods. We call it the locally Gaussian method. The method keeps the positive aspects of both categories: the innovation capacity of the parametric methods and the ability to synthesize highly structured textures of the non parametric methods. To this aim, the self-similarities of a given input texture are modeled with conditional multivariate Gaussian distributions in the patch space. In general, the results that we obtain are visually superior to those obtained with statistic based methods while using local parametric models. On the other hand, our results are comparable to the visual results obtained with the non parametric patch based methods. This dissertation addresses another weakness of all patch based methods. They are strongly dependent on the patch size used, which is decided manually. It is therefore crucial to fix a correct patch size for each synthesis. Since texture images have, in general, details at different scales, we decided to extend the method to a multiscale approach which reduces the strong dependency of the method on the patch size. Patch based methods involve a stitching step. Indeed, the patches used for the synthesis process overlap each other. This overlap must be taken into account to avoid any transition artifact from patch to patch. Our first attempt to deal with it was to consider directly the overlap constraints in the local parametric model. The experiments show that for periodic and pseudo-periodic textures, considering these constraints in the parametrization is enough to avoid the stitching step. Nevertheless, for more complex textures it is not enough, and this led us to suggest a new stitching technique inspired by optimal transport and midway histogram equalization.This thesis ends with an extensive analysis of the generation of several natural textures. This study shows that, in spite of remarkable progress for local textures, the methods proposed in the extensive literature of exemplar based texture synthesis still are incapable of dealing with complex and non-stationary textures.
|
229 |
Méthodes d’essais de vieillissement accéléré des bétons à l’échelle des ouvrages / Accelerated aging test methods of concrete at a structural scaleJabbour, Jacques 28 September 2018 (has links)
Cette thèse fait partie des programmes de recherche sur le vieillissement des ouvrages de génie civil nucléaire lancés par l’IRSN (Institut de Radioprotection et de Sûreté nucléaire) dans le cadre du projet de prolongement de la durée d’exploitation des centrales nucléaires françaises. Le but étant de contribuer à la connaissance des mécanismes de vieillissement des matériaux constitutifs des ouvrages non-remplaçables d’une centrale nucléaire, tels que les enceintes de confinement. En effet, leur comportement représente un point important pour l’évaluation de la sûreté des installations nucléaires, car elles représentent la troisième et la dernière barrière de confinement contre le relâchement éventuel des produits radioactifs dans l'environnement.Parmi les phénomènes intervenants lors du vieillissement des ouvrages, le développement éventuel des pathologies, notamment les réactions de gonflements internes (RGI) qui sont susceptibles de dégrader le béton et conduire à l’apparition des fissurations dans les structures touchées. Ces réactions de gonflement internes (RGI) englobent la réaction sulfatique interne (RSI), la réaction alcali-granulat (RAG) et la concomitance de ces deux. Il s’agit de réactions endogènes, se produisant suite à l’interaction des composants initiaux du matériau. Ces interactions peuvent avoir lieu suite à l’utilisation de granulats réactifs en cas de RAG et/ou suite à un échauffement important au jeune âge en cas de RSI. Dans les ouvrages nucléaires, l’éventualité de ces phénomènes ne peut pas être écartée. En effet, ils comportent des éléments structuraux massifs en béton armé pour lesquels un échauffement important a pu se produire lors de la prise du béton et des granulats réactifs ont pu être utilisés pendant la confection. Ce risque doit donc être étudié d’autant plus que le prolongement de la durée d’exploitation des installations est envisagé.Cependant, la cinétique d’apparition des désordres suite au développement de ces réactions dans les ouvrages est en général lente allant jusqu’à quelques dizaines d’années, d’où le recourt à des essais accélérés. Cependant les solutions pratiquées dans les laboratoires de recherche, consiste à utiliser des protocoles d’essais accélérés mis au point sur des éprouvettes de faibles dimensions.Le travail de recherche réalisé dans le cadre de cette thèse comporte trois grandes axes : la mise au point d’un protocole expérimental visant à accélérer les réactions de gonflement interne du béton à l’échelle de structures massives, l’analyse multi-échelle des phénomènes et la mise au point d’une instrumentation innovante adaptée à cette problèmatique. Trois maquettes (de dimensions 2,4 x 1,4 x 1 m3) représentatives d’un ouvrage massif ont été réalisées dans des conditions maitrisées et optimisées afin de favoriser respectivement le développement de la réaction sulfatique interne (RSI), de la réaction alcali-granulat (RAG) et de la concomitance des deux pathologies, RAG et RSI. Ceci a permis d’étudier ces pathologies et de les caractériser à une telle échelle.L’effet d’échelle sur la cinétique de gonflement est mis en évidence grâce à une étude expérimentale multi-échelle permettant de comparer l’évolution des réactions dans les maquettes avec leur évolution dans des éprouvettes en béton reconstitué et des carottages.Une méthode d’instrumentation innovante par fibres optiques a été spécifiquement développée pour ces maquettes, permettant de suivre l’évolution des pathologies dans la masse et d’en déduire les champs de déformation dans plusieurs plans d’intérêt. Les mesures sont utilisées pour décrire finement les mécanismes évolutifs du gonflement et la dégradation des structures. Ces mesures sont aussi utilisées comme référence pour des simulations numériques ultérieures. / This thesis is part of a research program on the aging of nuclear infrastructures launched by the IRSN (Institute for Radiological Protection and Nuclear Safety) within the project aiming to extend the lifespan of the French nuclear power plants. The goal is to contribute to the knowledge of aging mechanisms touching the constituents of non-replaceable structures of a nuclear power plant, such as the containment building. Matter of fact, the behavior of such structures is an important point for the safety assessment of nuclear installations because they represent the third and last barrier against the dispersion of radioactive particles in the environment. Among the phenomena involved in aging mechanisms, internal swellings reactions (ISR) are pathologies that can degrade concrete by causing swelling, cracking and major disorders in the affected structures. Internal swelling reactions (ISW) include the delayed ettringite formation (DEF), the alkali-aggregate reaction (AAR) and the concomitance of the two. These pathologies are endogenous reactions, occurring as a result of the interaction between the initial components of the material. These interactions take place following the use of reactive aggregates in case of AAR and/or following a significant warm-up at the concrete’s early age in case of DEF. In nuclear facilities, the possibility of these phenomena cannot be ruled out. Matter of fact, they include massive reinforced concrete elements for which a significant heating could have occurred at the early age. Moreover, reactive aggregates may have been used during the construction phase. Therefore those risks ought to be studied especially if the extension of the lifespan of these installations is envisaged.However, the kinetics of these reactions are generally slow and it can take for up to a few decades for disorders to appear in the structure. Among the solutions used in research laboratories, one is to use accelerated test methods developed on small specimens.The research work carried out in this context includes three major axis: the development of an experimental protocol to accelerate internal swelling reactions of concrete on a massive structure scale, multi-scale analysis of the phenomena involved and the development of innovative instrumentation adapted to this problem. The purpose is to allow better observation and understanding of swelling reactions at such scale. Hence, three representative massive concrete mock-ups whose dimensions are 2,4 x 1,4 x 1 m3 were realized under controlled and optimized conditions for the development of delayed ettringite formation (DEF), alkali silica reaction (ASR) and the concomitant ASR-DEF case respectively.The scale effect on swelling kinetics is demonstrated by an experimental study comparing the evolution of swelling reaction in the massive samples with the evolution in reconstituted concrete laboratory specimens as well as coring specimens.An innovative instrumentation method using optical fibers is also developed thus allowing the monitoring of the pathologies in the massive structures and the tracking of the respective deformation fields in several two-dimensional plans of interest. The measurements are to finely describe and help in understanding the evolutionary mechanisms of structural degradation and can be used subsequently as a reference for numerical simulations.
|
230 |
Modélisation et paramétrisation hydrologique de la ville, résilience aux inondationsGiangola-Murzyn, Agathe 30 December 2013 (has links) (PDF)
L'évolution constante des villes passe par l'urbanisation des zones encore disponibles induisant des effets sur les bilans hydriques des celles-ci. De plus, le changement climatique susceptible d'exacerber les extrêmes (dont les inondations) influence lui aussi ces bilans. La ville est donc un objet hydrologique spécifique qu'il faut replacer dans son contexte évolutif, ce qui élargit considérablement la gamme d'échelles spatio-temporelles à prendre en compte pour son analyse et sa simulation. L'Union Européenne considère que la gestion du risque d'inondation doit remplacer la défense classique contre celle-ci. Cette nouvelle approche est plus holistique : elle prend en compte toutes les composantes du risque et cherche a réduire la vulnérabilité des récepteurs (habitants, bâtiments et infrastructures). Elle débouche sur la question de la résilience des systèmes urbains où les technologies correspondantes doivent être intégrées en des systèmes résilients aux inondations. Il est donc indispensable de développer des outils permettant l'évaluation de la performance de ces derniers, et ce à différentes échelles. Ces préoccupations ont défini l'axe de développement de Multi-Hydro : faire interagir des modèles déjà éprouvés représentant une composante du cycle de l'eau, permettre d'effectuer ainsi des progrès substantiels dans la modélisation de l'eau en ville avec une facilité d'utilisation. Multi-Hydro est ainsi basé sur des équations physiques supportées par des modèles distribués couplés. Grâce à un outil SIG dédié, MH-AssimTool, les informations géographiques et physiques nécessaires à la modélisation sont facilement assimilés pour chaque zone et résolution. En effet, une attention particulière été portée sur les observables ayant le moins de dépendance en échelle. L'emploi d'outils d'analyse multi-échelles permet de représenter leur variabilité et de définir des paramétrisations robustes du fonctionnement hydrologique à différentes échelles. L'ensemble de ces développements a été utilisé pour aborder la question de la résilience face aux inondations à différentes échelles d'un système urbain, dans le cadre de différents projets européens (SMARTeST, RainGain, BlueGreenDream) ou nationaux (Ville Numérique), à l'aide d'une approche systémique sur des scénarios pour plusieurs cas d'étude :- un petit bassin versant de Villecresnes (Val-de-Marne) qui a servi a l'évaluation des impacts de chaque modification apportée au modèle au cours de son développement.- la partie Est de la commune de Saint-Maur-des-Fossés (Val-de-Marne) qui a subi un audit de l'état du réseau d'assainissement (cartographie précise des canalisations et campagnes de mesures) et dont les résultats préliminaires ont permis de poser la problématique de la modélisation des rivières.- un quartier d'Heywood (grande banlieue de Manchester, Royaume Uni), qui a subi plusieurs inondations durant la dernière décennie et demande une modélisation assez fine pour permettre l'évaluation de l'impact de quatre scénarios de protection.- le bassin versant de la Loup, dont l'exutoire est occupé par un bassin de stockage des eaux de pluie, a été modélisé pour quatre évènements d'intensités et de durées variables et a permis de débuter la validation du modèle.- la zone de Spaanse Polder (Rotterdam, Pays Bas), pose la problématique de la modélisation des zones très planes au système de drainage complexes (pompes, exutoires multiples). Cette zone permet de guider les développements futurs de Multi-Hydro. Dans le contexte de l'amélioration de la résilience des villes face aux inondations, Multi-Hydro se place comme étant un outil qui offre la possibilité de simuler des scénarios permettant l'évaluation des impacts à l'échelle globale de modifications à plus petites échelles. Grâce a sa facilité de mise en place que lui confère MH-AssimTool, ainsi que sa structure modulaire et sa liberté de licence, Multi-Hydro est en train de devenir un outil d'aide à la décision
|
Page generated in 0.0656 seconds