• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 63
  • 32
  • 4
  • Tagged with
  • 98
  • 81
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Anisotropie de comportement en fluage thermique de tubes gaine et de tubes guide en alliages de Zirconium. Développements expérimentaux et résultats. / Anisotropic creep behaviour of zirconium cladding tubes. A new device and experimental results

Grosjean, Catherine 30 June 2009 (has links)
Les tubes gaine et tubes guide réalisés en alliage de zirconium et utilisés dans les réacteurs à eau pressurisée constituent des éléments de structures essentiels de ce type de réacteur. Soumis à de multiples sollicitations (irradiation, corrosion, hydruration…), ils subissent aussi des contraintes mécaniques multiaxées à une température d'environ 320 °C, ce qui induit du fluage thermique. Cette thèse a pour but d'étudier l'influence de trois paramètres sur le comportement en fluage d'alliages de zirconium qui sont fortement anisotropes : le trajet de chargement, l'état métallurgique et la composition chimique. Compte tenu de la géométrie particulière de ces tubes mais surtout de la multiaxialité des chargements en service (pression interne qui augmente, contrainte axiale…), la première partie de la thèse a consisté en la mise au point d'un dispositif de fluage adapté. Celui-ci a été testé et validé en réalisant des essais sur Zircaloy 4 détendu. La suite de l'étude a été menée à une température fixe, 400 °C, en réalisant des essais pour déterminer deux courbes iso-vitesses de fluage (5 10-9 et 3,510-8 s-1) pour chacun des matériaux testés. La comparaison entre les résultats obtenus sur le Zircaloy 4 détendu et recristallisé a permis de déterminer les effets de l'état métallurgique sur le fluage dans cette gamme de vitesses. L'alliage de référence (M5®) nous a permis de montrer, qu'à cette température, pour cette gamme de contraintes, l'ordre des étapes de mise en charge ne semblait pas avoir d'influence sur le comportement en fluage. Les effets de l'oxygène, de l'étain et du fer ont pu être étudiés grâce à 5 autres alliages (M5® haut et bas oxygène, quaternaires Q12, Q32 et Q42). Enfin, à l'aide du logiciel Sidolo, en utilisant d'une part la base expérimentale sur le M5® et d'autre part celle sur le Zircaloy 4 recristallisé, deux modélisations macroscopiques ont été ajustées sur les résultats expérimentaux. La première utilise un critère de Von Mises (isotrope), la seconde un critère de Hill plus adapté pour les matériaux anisotropes. Aucun de ces deux modèles ne parvient à rendre compte de la forte anisotropie du comportement de fluage à 400°C en particulier pour des valeurs de σZZ / σθθ entre 0,5 et 1. / Fuel rods and cladding tubes in zirconium are essential structural parts of Pressurized Water Reactors. There are submitted in service to aggressive environment (vapour at ~320°C, 155 bars, and irradiation) and to multiaxial mechanical loadings leading to thermal creep which has to be quantified. The present work aims to determine the effects of 3 parameters on the mechanical behaviour of different zirconium alloys: the loading path, the metallurgical state (stress-relieved, recrystallized) and the chemical composition. The first step to take was to develop a new device adapted to different geometries of tubes, and to validate it by comparing experimental results obtained upon the stress-relieved Zircaloy 4 to bibliographical results. Second, a large database has been constituted on the M5® in order to highlight the effects of an overloading or of cycling on the circumferential stress, and of the loading path (application of the axial then the circumferential stress, or the contrary or proportional loading). Then by comparing the behaviour of the recrystallized and the stress-relieved Zircaloys 4, the effects of the metallurgical state on this hexagonal alloy on the creep behaviour have also been studied. Lastly, the effects of oxygen, stain and iron have been quantified due to 5 other alloys (M5® low and high oxygen, Q12, Q32 and Q42). The last step of this work corresponds to the model of the macroscopic behaviour of 2 alloys (M5® and Zircaloy 4) with isotropic and anisotropic criteria to prove the necessity of developing a new and strong model adapted to highly anisotropic alloys like Zirconium alloys
82

Recherche indirecte de matière noire en direction des galaxies naines avec le télescope à neutrinos ANTARES / Indirect research of dark matter toward dwarf galaxies with the ANTARES neutrino telescope

Dumas, Alexis 21 October 2014 (has links)
La première partie de ce document résume les arguments astrophysiques permettant de supposer l’existence de matière noire. Le modèle cosmologique ΛCDM y est présenté ainsi que la notion de section efficace d’auto-annihilation de matière noire. Les galaxies naines satellites de la Voie Lactées, sources de notre étude, sont introduites dans un second chapitre. Après un rappel des grandes structures qui composent l’univers, les problématiques liées aux galaxies naines sont abordées : nombre de ces galaxies, distribution de la densité de matière noire en leur sein et forces de marées dues à la Voie Lactée.La seconde partie discute de la modélisation de la densité de matière noire dans les galaxies naines. La méthode employée, utilisant l’équation de Jeans et la dispersion des vitesses projetées des étoiles, y est présentée. Trois profils de matière noire sont retenus : NFW, Burkert et Einasto ainsi que quinze galaxies naines. La production de neutrinos lors de l’auto-annihilation de matière noire est ensuite abordée. Les spectres énergétiques des neutrinos produits sont générés avec le logiciel PYTHIA puis comparé avec d’autres résultats pour le centre galactique. Vingt-trois hypothèses de masse du candidat de matière noire sont choisies, allant de 25 GeV/c2 `a 100 TeV/c2. Cinq canaux d’auto-annihilation sont sélectionnés pour l’analyse : χχ → b¯b, W+W−, τ+τ−, μ+μ−, νμ ¯ νμ. La troisième partie comporte une présentation du détecteur utilisé pour l’étude, le télescope à neutrinos ANTARES. Trois algorithmes de reconstruction développés et utilisés au sein de la collaboration y sont également détaillés : AAFit, BBFit et GridFit. L’analyse des données d’ANTARES ayant pour but de mettre en évidence un excès de neutrinos caractéristique de l’auto-annihilation de matière noire est résumée dans le sixième et dernier chapitre. Aucun excès n’ayant été observé, une limite sur la section efficace d’auto-annihilation de matière noire a été déterminée. / The first part of this document summarizes the astrophysical arguments to suppose the existence of dark matter. The cosmological model ΛCDM is presented as well as the concept of cross section of dark matter self-annihilation. Dwarf galaxies satellites of the Milky Way, the sources of our study are introduced into a second chapter. After recalling the large structures that make up the universe, the issues related to dwarf galaxies are addressed : missing satellites problem, distribution of dark matter density within them and tidal forces due to the Milky Way. The second part discusses the modeling of the dark matter density in dwarf galaxies. The methodology, using the Jeans equation and dispersion of projected stars velocities, is presented. Three dark matter profiles are retained : NFW, Burkert and Einasto and fifteen dwarf galaxies.Neutrino production during the self-annihilation of dark matter is then addressed. The energy spectra of neutrinos are generated with PYTHIA software and compared with other results for the galactic center. Twenty-three assumptions of mass dark matter candidates are chosen, ranging from 25 GeV/c2 100 TeV/c2. Five self-annihilation channels are selected for analysis : χχ → b¯b, W+W− τ+τ− μ+μ− νμ ¯ νμ. The third part includes a presentation of the detector used for the study, the ANTARES neutrino telescope. Three reconstruction algorithms developed and used in collaboration are also detailed : AAFIT, BBFit and GridFit. The analysis of data ANTARES aimed to find a neutrinos excess characteristic of dark matter self-annihilation is summarized in the sixth and final chapter. No excess was observed, a limit on the cross section of dark matter self-annihilation was determined.
83

Suivi de la température de surface dans les zones de pergélisol arctique par l'utilisation de données de télédétection inversées dans le schéma de surface du modèle climatique canadien (CLASS)

Marchand, Nicolas January 2017 (has links)
Les régions de haute latitude sont actuellement les plus sensibles aux effets du réchauffement climatique, et avec des élévations de température pouvant atteindre les 3 à 8 ◦C au niveau du pôle sur les 100 prochaines années. Les pergélisols (sols présentant des températures négatives deux années consécutives) sont présents sur 25 % des terres émergées de l’hémisphère nord et contiennent de grandes quantités de carbone « gelé », estimées à 1400 Gt (40 % de la quantité de carbone terrestre global). Des études récentes ont montré qu’une partie non négligeable (50 %) des premiers mètres des pergélisols pourraient fondre d’ici 2050, et 90 % d’ici 2100. Le but de l’étude est donc d’améliorer les moyens de suivi de l’évolution des températures du sol dans les zones arctiques, et plus particulièrement dans les régions couvertes de neige. L’objectif est de décrire la température du sol tout au long de l’année y compris sous un manteau neigeux, et d’analyser l’évolution de l’épaisseur de la couche active des pergélisols en relation avec la variabilité du climat. Nous utilisons des données satellites (fusion de données de température dans l’infra-rouge thermique “LST” et de température de brillance micro-onde AMSR-E « Tb ») assimilées dans le schéma de surface du modèle climatique canadien (CLASS, V 3.6) couplé à un modèle simple de transfert radiatif (HUT). Cette approche bénéficie des avantages de chaque type de donnée de manière à réaliser deux objectifs spécifiques : 1-construire une méthodologie solide permettant de retrouver les températures du sol, avec et sans neige, en zone de toundra, et 2-à partir de ces températures du sol, dériver la durée de fonte estivale et l’épaisseur de la couche active du pergélisol. Nous décrivons le couplage des modèles ainsi que la méthodologie permettant l’ajustement des paramètres météorologiques d’entrée du modèle CLASS (essentiellement les températures de l’air et les précipitations issues de la base de données des réanalyses météorologiques NARR) de manière à minimiser les LST et Tb simulées en comparaison aux mesures satellites. Par rapport aux données de mesures de sol de stations météorologiques prises comme référence pour validation dans les zones de toundra d’Amérique du Nord, les résultats montrent que la méthode proposée améliore significativement la simulation des températures du sol lorsqu’on utilise les données LST MODIS et Tb à 10 et 19 GHz pour contraindre le modèle, en comparaison avec les sorties du modèle sans les données satellites. Dans ce processus d’inversion, la correction de l’évolution des conditions de neige au cours de l’hiver contrainte avec le rapport de polarisation à 11 GHz constitue une approche originale. Une analyse de l’erreur pour 4 sites de toundra et sur plusieurs années (18 cas) est effectuée pour la période estivale (1,7 -3,6 K) ainsi que pour la période hivernale couverte de neige (1,8 -3,5 K). L’indice des degrés-jours de fontes annuel, dérivé des températures du sol simulés par notre approche, permet de cartographier les zones de pergélisols continu en accord avec les cartes actuelles. Un meilleur suivi des processus d’évolution des pergélisols, et tout particulièrement de l’impact de la couverture de neige, devrait permettre une meilleure compréhension des effets du réchauffement climatique sur la fonte des pergélisols et l’avenir de leurs stocks de carbone. / Abstract : High latitude areas currently are the most sensitive to global warming effects. In the next 100 years, temperature could rise up to 3 to 8 ◦C at the North Pole. Permafrost (ground with negative temperatures two years in a row) represents 25% of northern hemisphere lands, and contains huge quantities of "frozen" carbon estimated at 1400 Gt (40 % of the global terrestrial carbon). Recent studies showed that a part (50 %) of the permafrost first few meters could melt by 2050, and 90 % by 2100. The goal of our study is to improve our understanding of ground temperature evolution in arctic areas, especially in snow covered regions. The objective is to discribe the ground temperature all year long with and without a snow cover, and to analyze the evolution of the permafrost’s active layer in relation with the climate variability. We use remote sensing data (fuzzed of MODIS "LST" surface temperatures and AMSR-E "Tb" brightness temperatures) assimilated in the canadian landscape surface scheme (CLASS) coupled to a simple radiative transfer model (HUT). This approach takes into account the advantages of each kind of data in order to achieve two objectives : 1 - build a solid methodology allowing to retrieve ground temperatures, with and without a snow cover, in tundra areas ; 2 - from those retrieved ground temperatures, derive the summer melting duration which can be linked to the permafrost active layer thickness. We describe the models coupling as well as the methodology allowing the adjustement of CLASS input meteorological parameters (essentially the air temperatures and precipitations from the NARR meteorological data base) in order to minimize the simulated LST and Tb in comparison to remote sensing data. By using meteorological station’s ground temperature measurments as a reference for validation in North America tundra areas, results show that the proposed method improves the simulation of ground temperatures when using LST MODIS and Tb at 10 and 19 GHz data to constrain the model, in comparison with model outputs without satellite data. Using the Tb polarization ratio H/V at 10 GHz allows an improvement of the constrain on winter period simulations. An analyze of the error is conducted for summer (1,7 - 3,6 K) and winter (1,8 - 3,5 K). We present climatic applications for future work that meets the second objective of the Ph.D. A better understanding of evolution processes of permafrost, and particularly of the impact of the snow cover, should allow us a better understanding of global warming effects on the permafrost’s melting and the future of their carbon stocks.
84

Un modèle du processus de préparation à la perte d’un conjoint : une théorisation ancrée constructiviste auprès de conjointes de personnes vivant avec un cancer

Allard, Emilie 12 1900 (has links)
No description available.
85

Modélisation, implémentation et caractérisation de circuits générateurs de nombres aléatoires vrais pour la certification de crypto-processeurs / Modeling, design and characterization of delay-chains based true random number generator

Ben Romdhane, Molka 01 October 2014 (has links)
Les nombres aléatoires sont indispensables dans de nombreuses applications notamment en cryptographie où l’aléa est utilisé dans les protocoles de sécurité. Les générateurs de nombres aléatoires, plus connus sous le nom de RNG comme “Random Number Generator” se déclinent en deux familles, les PRNG (Pseudo RNG) qui sont des générateurs de nombres aléatoires ayant des séquences déterministes et les TRNG (True RNG) qui sont des générateurs d’aléa “vrai”, donc non prédictibles. Les applications cryptographiques utilisent à la fois les TRNG et les PRNG. Un PRNG nécessite une valeur initiale, ou graine, qui peut être la sortie d’un TRNG. Les TRNG tirent profit de l’aléa des phénomènes physiques. Les TRNGs dans les technologies numériques comme les FPGAs font appel à des oscillateurs qui présentent l’inconvénient de pouvoir être attaqués par couplage harmonique. De façon à évaluer la qualité entropique d’un TRNG, des standards basés sur des tests statistiques ont été élaborés par des organismes de certification comme le NIST ou la BSI. Cependant, il est recommandé de formaliser, par le biais d’un modèle, le caractère stochastique de la génération d’aléa. Dans cette thèse, nous étudions une architecture de TRNG, peu coûteuse et robuste face aux attaques harmoniques car elle n’utilise pas d’oscillateurs. Ce TRNG extrait une variable aléatoire en exploitant à la fois les états métastables des bascules et les fluctuations temporelles (ou gigue) des signaux échantillonnés. Nous proposons par la suite un modèle stochastique qui nous permet de décrire le comportement aléatoire du TRNG indépendamment de la technologie ciblée. Les caractérisations et évaluations sur des circuits prototypes en technologies FPGA et ASIC montrent que l’architecture TRNG proposée génère de l’aléa de qualité et est robuste face aux variations environnementales / Random numbers are required in numerous applications namely in cryptography where randomness is used in security protocols. There are two main classes of Random Number Generators (RNG) : The Pseudo RNG (PRNG) which have a deterministic sequence, and the True RNG (TRNG) which generates unpredictable random numbers. Cryptographic applications use both TRNG and PRNG. The PRNG needs an initial value, or seed, which can be the output of a TRNG. In digital technologies, like FPGAs, TRNG are commonly based on oscillators which have the drawback of being biased by harmonic coupling. In order to assess the entropic quality of TRNGs, standards based on statistical tests have been elaborated by certification organisms namely the NIST and the BSI. However, it is recommended to formalize the stochastic behaviour of the randomness generation process. In this Ph.D, we address the design and quality evaluation of TRNGs in digital circuits. We study of a low-cost digital TRNG without oscillators, hence robust against harmonics attacks. The proposed TRNG exploits both the metastability phenomenon and the jitter noise in CMOS digital flip-flops to generate the random numbers. A stochastic model of this TRNG has been formalized. This model describes the random generation process regardless of the targeted technology. The characterization and evaluation on a prototype circuit, in FPGA and ASIC technologies, has shown that the proposed TRNG architecture generates randomness of good quality and is robust against environmental variations.
86

Analyse des coordinations entre la posture et le mouvement lors de l’initiation de la marche avec enjambement d’obstacle : anticipation posturale, adaptation et modélisation. / Coordination analysis between posture and movement during gait initiation over an obstacle to be cleared : postural anticipation, adaptation and modelization.

Artico, Romain 27 June 2019 (has links)
L’objectif général de cette thèse était d’investiguer l’organisation posturale de l’initiation de la marche (IM) lors de l’application cumulée de contraintes temporelles et spatiales. L’hypothèse générale était que le système postural, chez le jeune adulte sain, est capable de s’adapter à une variation du degré de contrainte imposé expérimentalement, pour maintenir un niveau de performance motrice et de stabilité invariant. Trois études ont été réalisées pour tester cette hypothèse générale, auxquelles s’est ajoutée une étude de validation de mesure des dimensions de la base de support (BS). L’objectif de la première étude était d’analyser l’effet de la pression temporelle (PT) et de la présence d’un obstacle à franchir sur l’organisation posturale de l’IM. Les résultats ont montré que la durée des ajustements posturaux anticipateurs (APA) était réduite en condition de PT forte comparativement à la condition de PT faible. Cette contrainte n’entrainait cependant pas d’altération de la stabilité et de la performance motrice, vraisemblablement grâce à l’augmentation concomitante de l’amplitude des APA. Par ailleurs, il a été montré que l’enjambement de l’obstacle induisait une augmentation de la durée de la phase oscillante provoquant, de fait, une augmentation potentielle de l’instabilité posturale. Cet effet négatif était cependant contrebalancé par un développement d’APA plus important qu’en condition sans obstacle. Dans cette première étude, la hauteur et la distance à l’obstacle étaient fixes. L’objectif de la deuxième étude était d’analyser l’effet d’une modification des caractéristiques de l’obstacle, combinée à une variation de la contrainte temporelle sur l’organisation posturale de l’IM. Trois hauteurs et distances d’obstacle, et deux niveaux de PT étaient combinés. Pour mettre en évidence le caractère adaptatif de la modulation des caractéristiques des APA en fonction des contraintes spatiotemporelles imposées, un modèle mécanique original du corps humain permettant de formaliser la trajectoire du centre des masses a été élaboré. En accord avec la première étude, les résultats ont montré que la stabilité posturale et la performance motrice demeuraient équivalentes dans les différentes conditions, malgré les larges variations des contraintes imposées. Le modèle mécanique nous a permis de démontrer que cette invariance était liée à la modulation de l’amplitude des APA, témoignant ainsi de l’adaptabilité du système postural aux contraintes imposées. Cette expérimentation a également permis de mettre en évidence de façon fortuite que plus la distance à l’obstacle était importante, plus le pourcentage de pose avant-pied augmentait. L’objectif de la troisième étude était d’analyser l’effet de la pose de pied (avant ou arrière-pied) sur l’organisation posturale de l’IM avec franchissement d’obstacle. Les résultats ont montré que cette organisation posturale dépendait étroitement de la stratégie de pose du pied. Ceux-ci suggéraient l’existence d’une relation d'interdépendance entre les mécanismes de contrôle de l'équilibre de l’IM et la stratégie de pose du pied permettant ainsi, un contrôle optimal de la stabilité. L’objectif de la quatrième étude était de valider la mesure des dimensions de la BS au cours de l’IM à l’aide d’une plateforme de force (méthode dynamique), en prenant pour « gold standard » le système VICON. Les résultats ont montré que la méthode dynamique était suffisamment précise pour pouvoir être comparée au gold standard. En conclusion, l’ensemble de ces résultats suggère que chez le jeune adulte sain, le SNC est capable de moduler de façon adaptative et optimale les mécanismes de contrôle de l’équilibre en fonction des contraintes spatiotemporelles imposées. En termes d’implications cliniques, l’IM avec franchissement d’obstacle serait une méthode de rééducation intéressante aussi bien en évaluation (test-retest) qu’en rééducation où l’obstacle permettrait de proposer une contrainte dosable et reproductible / The main objective of this thesis was to investigate the postural organization of gait initiation (GI) during the application of temporal and spatial constraints. The main hypothesis was that the postural system, in the healthy young adult, is able to adapt to the degree of constraint imposed experimentally, in order to maintain an invariant level of motor performance and stability. Three studies were conducted to test this main hypothesis, with the addition of a validation study measuring the dimensions of the base of support (BOS). The objective of the first study was to analyze the effect of temporal pressure (TP) and the presence (or not) of an obstacle to be cleared on the postural organization of GI. The results showed that the duration of anticipatory postural adjustments (APA) was drastically reduced under the condition of high TP (GI in reaction time) compared to the condition of low TP (GI in self-initiated). This constraint didn’t result in a decrease of stability and motor performance, probably due to the increase in APA amplitude. In addition, it has been shown that clearing an obstacle induces an increase in the duration of the swing phase causing, a potential increase of the postural instability. This negative effect was, however, counterbalanced by the development of more significant APA than without obstacle. In this first study, the height and the distance of the obstacle were fixed. The objective of the second study was to analyze the effect of a modification in the characteristics of the obstacle to be cleared, combined with a variation of temporal constraint on the postural organization of GI. Three heights and three obstacle distances, and two TP levels were combined. To insist on the adaptive character of the characteristics of APA modulation according to the spatiotemporal constraints imposed, an original mechanical model of the human body formalizing the centre of mass trajectory has been elaborated. In agreement with the first study, the results showed that postural stability and motor performance remained equivalent under the different experimental conditions, despite wide variations in the imposed stress level. The mechanical model allowed us to demonstrate that this invariance was related to the amplitude modulation of APA, thereby demonstrating the adaptability of the postural system to imposed constraints. This experiment also highlights "fortuitously" that as the obstacle distance increase, the higher percentage of forefoot strike increase. Also, the objective of the third study was to analyze the effect of the foot strike strategy (front or rear foot) on the postural organization of the GI with an obstacle to be cleared. The results showed that this postural organization was dependent on the swing foot-off strategy. These results suggested the existence of an interdependent relationship between GI's balance control mechanisms and the foot strike strategy, allowing an optimal control of stability. Finally, the objective of the fourth study was to validate the measurement of the BOS dimensions during GI using a force platform (dynamic method), taking the VICON system as gold standard. The results showed that the dynamic method was sufficiently precise to be compared to the gold standard. In conclusion, all of these results suggest that in the healthy young adult, the CNS is able to adaptively and optimally modulate the balance control mechanisms according to the spatiotemporal constraints imposed experimentally. For clinical implications, GI with obstacle to be cleared would be an interesting method of rehabilitation in both test-retest and rehabilitation where the obstacle would provide a measurable and reproducible constraint.
87

Rhéologie de polymères fondus dans des entrefers micrométriques / Rheology of polymer melts in microscale geometries

Akkoyun, Serife 11 February 2013 (has links)
Depuis quelques années, la microplasturgie est un secteur en plein développement. Cependant, le comportement rhéologique des matériaux polymères dans des géométries très minces (dimension inférieure à 100 µm) n’est pas bien caractérisé. Peu de travaux ont été entrepris à ce sujet, en particulier en ce qui concerne les écoulements de Poiseuille qui sont pourtant les plus représentatifs des conditions de mise en œuvre usuelles. Ainsi, ce travail a pour but la mise au point d’une méthode expérimentale permettant d’obtenir des données pertinentes afin de caractériser de façon approfondie le comportement des matériaux polymères en écoulement de Poiseuille dans des géométries micrométriques. Afin de décrire au mieux la physique de tels écoulements, nous avons également cherché à les simuler numériquement, soit en utilisant des lois de comportement classiques, soit à l’aide de modèles se référant à la dynamique moléculaire. Pour atteindre ces objectifs, une filière à fente plate instrumentée avec des capteurs de pression et température, d’entrefer variant entre 50 et 200µm, a été conçue afin d’effectuer des mesures à l’aide d’un rhéomètre capillaire. Ce dispositif a été validé en confrontant les mesures à celles obtenues par d’autres méthodes (rhéométrie capillaire en filière classique et rhéométrie dynamique). Le glissement à la paroi a également été étudié, selon la méthode de Mooney. La simulation numérique de l’écoulement a d’abord été réalisée à l’aide de POLYFLOW®. L’effet de la pression sur la géométrie ainsi que sur le matériau polymère a été étudié. Puis, l’écoulement a également été simulé sous MATLAB® en utilisant des lois constitutives de type moléculaire basées sur le modèle du tube de Doï-Edwards ainsi que sur le concept de « Molecular Stress Function » introduit par Wagner pour rendre compte des effets d’orientation des molécules (variation du diamètre du tube) dans le champ de contraintes. L’écart constaté entre ces calculs et les résultats expérimentaux est expliqué et discuté à la lumière des simulations sous POLYFLOW®. Il modifie les perspectives d’étude de ce type d’écoulements. / The rheological behavior of polymer melts in microscale geometries is not really understood yet. In such processes which involve gaps thinner than 100µm (e.g. micro-injection molding), the material behaves differently compared to macroscopic flows. Besides, most polymer processing techniques involve pressure flows and only very few studies can be found about pressure flows in such thin geometries. The aim of this study was, first, to develop an experimental method which can provide relevant data about the rheological behavior of polymer melts in pressure flow taking place in microscale geometries. In order to get better descriptions of the physics involved in such flows, numerical simulation with commercial and home-made softwares was also implemented, especially with molecular dynamics constitutive models. Thus, a modular rheometrical slit die equipped with pressure and temperature transducers was designed to be adapted to a capillary rheometer, with different gap dimensions available, between 50µm and 200µm. The device was assessed by comparing to usual rheological ones, and wall slip was investigated according to Mooney’s method. Then, simulation of the flow was performed with POLYFLOW®. The pressure effect on the geometry and on the polymer material was investigated. Besides, simulation was also conducted with MATLAB® by implementing the Doi-Edwards’ tube model (reptation theory) and the Molecular Stress Function concept of Wagner to take into account the enhanced orientation of the molecules due to the very close vicinity of the die walls. Experimental results were compared to calculations, and the discussion of the discrepancies was supported by POLYFLOW® simulations. The conclusions somewhat modify the prospects for future studies of such flows.
88

Etude des flux sanguins dans le placenta humain et influence du shear stress sur la fonction biologique du syncytiotrophoblaste

Lecarpentier, Edouard 06 October 2016 (has links)
La placentation humaine est de type hémomonochoriale, le sang maternel est directement en contact avec le syncytiotrophoblaste. Les flux sanguins maternels, dans la chambre intervilleuse, exercent des forces mécaniques de cisaillement (shear stress) sur la surface microvillositaire du syncytiotrophoblaste. Les effets physiologiques du shear stress exercé par les flux sanguins sur l’endothélium vasculaire artériel et veineux ont fait l’objet de nombreux travaux scientifiques. En revanche, les effets biologiques du shear stress sur le syncytiotrophoblaste humain n’ont jamais été explorés. L’objectif de ce travail était premièrement d’évaluer les valeurs du shear stress exercé in vivo sur le syncytiotrophoblaste humain au cours des grossesses normales, puis de mettre au point un modèle de culture primaire dynamique afin de reproduire les conditions physiologique et d’étudier in vitro la réponse biologique du syncytiotrophoblaste au shear stress. En dépit d’un débit sanguin maternel intraplacentaire important, estimé entre 400 et 600 mL.min-1, le shear stress moyen exercée par le syncytiotrophoblaste est estimée entre 0.5±0.2 et 2.3±1.1 dyn.cm-2. Nos résultats montrent cependant que l’intensité du shear stress est très hétérogène tant à l’échelle de la chambre intervilleuse que de la villosité terminale. Nous avons développé un modèle de culture cellulaire dynamique en condition de flux adapté au syncytiotrophoblaste humain. Ce modèle permet d’appliquer un shear stress égal et constant sur toutes les cellules cultivées et reproductible à chaque culture primaire. Aux gammes de shear stress étudiées (1 dyn.cm-2), nous n’avons pas mis en évidence de diminution de la viabilité cellulaire ni de déclenchement des processus précoces d’apoptose en conditions dynamiques comparativement aux conditions statiques. Deux types de chambre de perfusion permettent d’étudier des réponses cellulaires au shear stress à court et long terme selon des temps d’exposition allant de 5 minutes à 24 heures. Ce modèle expérimental a permis de montrer que le syncytiotrophoblaste humain en culture primaire est mécanosensible. La réponse cellulaire à des niveaux de shear stress de 1 dyn.cm-2 est multiple selon les temps d’exposition et le niveau d’intégration étudié. Après 45 minutes de shear stress les taux d’AMP cyclique intracellulaires sont augmentés ce qui a pour effet d’activer la voie de signalisation intracellulaire PKA-CREB. Cette augmentation d’AMP cyclique est secondaire à la synthèse et la libération de prostaglandine E2 qui, par une boucle de régulation autocrine stimule l’adenylate cyclase. L’augmentation de la synthèse/libération de PGE2 est dépendante de l’augmentation rapide du calcium intracellulaire sous shear stress. L’exposition au shear stress de 24 heures stimule l’expression et la sécrétion du PlGF, un facteur de croissance indispensable à l’angiogenèse placentaire et pour l’adaptation maternelle à la grossesse sur le plan vasculaire. Nos travaux montrent que l’augmentation de l’AMPc intracellulaire et l’activation de la PKA contribuent à la phosphorylation de CREB, facteur de transcription régulant l’expression du PlGF. / Human placentation is hemomonochorial, maternal blood circulates in direct contact with the syncytiotrophoblast. In the intervillous space, the maternal blood exerts frictional mechanical forces (shear stress) on the microvillous surface of the syncytiotrophoblast. Flowing blood constantly exerts a shear stress, on the endothelial cells lining blood vessel walls, and the endothelial cells respond to shear stress by changing their morphology, function, and gene expression. The effects of shear stress on the human syncytiotrophoblast and its biological functions have never been studied. The objectives of this study were (1) to determine in silico the physiological values of shear stress exerted on human syncytiotrophoblast during normal pregnancies, (2) to develop a model reproducing in vitro the shear stress on human syncytiotrophoblast and (3) to study in vitro the biological response of human syncytiotrophoblast to shear stress. The 2D numerical simulations showed that the shear stress applied to the syncytiotrophoblast is highly heterogeneous in the intervillous space. In spite of high intraplacental maternal blood flow rates (400-600mL.min-1), the estimated average values of shear stress are relatively low (0.5±0.2 to 2.3±1.1 dyn.cm-2). To study the shear stress-induced cellular responses during exposure times ranging from 5 minutes to 24 hours we have developed two dynamic cell culture models adapted to the human syncytiotrophoblast. We found no evidence of decreased cell viability or early processes of apoptosis in dynamic conditions (1 dyn.cm-2, 24h) compared to static conditions. Shear stress (1 dyn.cm-2) triggers intracellular calcium flux, which increases the synthesis and release of PGE2. The enhanced intracellular cAMP in FSS conditions was blocked by COX1/COX2 inhibitors, suggesting that the increase in PGE2 production could activate the cAMP/PKA pathway in an autocrine/paracrine fashion. FSS activates the cAMP/PKA pathway leading to upregulation of PlGF in human STB. Shear stress-induced phosphorylation of CREB and upregulation of PlGF were prevented by inhibition of PKA with H89 (3 μM). The syncytiotrophoblast of the human placenta is a mechanosenstive tissue.
89

Stratégie de modélisation des systèmes de valorisation énergétique : Application aux machines ORC et à absorption / Modeling strategy of energy recovery systems : Application of ORC and absorption machines

Wang, Yunxin 20 July 2017 (has links)
La consommation énergétique dans l’industrie augmente de nos jours, avec l’amplification des activités industrielles dans le monde. En parallèle, la pénurie des énergies primaires et le réchauffement climatique obligent des exploitations sans cesse des énergies et des techniques alternatives, afin de développer durablement, et de satisfaire l’augmentation de la consommation. Ainsi, l’amélioration de l’utilisation énergétique dans l’industrie devient aussi un sujet important à développer et à étudier. Dans certains sites industriels, les rejets thermiques sont énormément dégagés dans l’environnement sans aucun traitement énergétique. Ses températures sont parfois, beaucoup plus élevées que l’ambiant. La valorisation de ces chaleurs est conseillée, par des systèmes de valorisation, pour la production de chaud, de froid et d’électricité. Ce traitement peut réduire significativement le gaspillage et améliorer l’efficacité énergétique dans l’industrie. C’est pour cette raison, plusieurs projets sont lancés. Le projet VALENTHIN (VALorisation ENergétique des rejets THermiques INdustriels) est pour but d’améliorer l’efficacité énergétique industrielle en valorisant les rejets thermiques ou en développant les processus industriels. Cette thèse concentre sur les études des systèmes de valorisation, particulièrement en ce qui concerne les différentes méthodes de simulation. Dans cette thèse, les bibliographies sont synthétisées, sur les différentes modélisations des systèmes de valorisation, surtout le système à absorption et le cycle de Rankine organique mentionnés dans ce projet. Par conséquent, une stratégie de modélisation est proposée et est montrée, pour les simulations des systèmes en régime permanent et en régime dynamique. Le choix des types de modélisation doit prendre en compte leurs avantages et leurs inconvénients, et aussi les besoins des utilisateurs, pour but de modéliser et développer des systèmes plus aisément et plus efficacement. / Energy consumption in industry is increasing today, with the amplification of industrial activities in the world. At the same time, the scarcity of primary energy and global warming are insist the use of alternative technologies and energies, in order to sustainably develop, and to satisfy the increase in consumption. Thus, improving energy use in industry is also becoming an important topic to be developed and studied. In some industrial sites, the waste heats are enormously released into the environment without any energy treatment. Its temperatures are sometimes, much higher than the ambient. The valorization of these heats is advised, by using the valorization systems, for the production of hot, cold and electricity. This treatment can significantly reduce the energy waste and improve energy efficiency in the industry. For this reason, several projects are being launched. The aim of the VALENTHIN project is to improve industrial energy efficiency by valorizing waste heat or by developing industrial processes. This thesis concentrates on the studies of valorization systems, particularly with regard to the different modeling methods. In this report, the bibliographies are synthesized, on the different models used for the valorization systems, especially the absorption system and the organic Rankine cycle mentioned in this project. Consequently, a modeling strategy is proposed and is shown for steady state simulations and dynamic regime systems. The choice of types of modeling must take into account their advantages and disadvantages and also the needs of the users, with the aim of modeling and developing systems more easily and efficiently.
90

Self-assembly of anisotropic particles driven by ice growth : Mechanisms, applications and bioinspiration / Auto-assemblage de particules anisotropes réalisé par croissance de cristaux de glace : Mécanismes, applications et bioinspiration

Bouville, Florian 11 December 2013 (has links)
Les phénomènes d'auto-assemblage sont au premier plan de la recherche en sciences des matériaux car ils comblent le vide laissé entre les procédés d'assemblage à l'échelle macroscopique et nanoscopique. L'auto-assemblage est basé sur l'organisation spontanée de composants individuels en motifs et structures. Contrôler l’agencement de la matière peut accroître les propriétés de matériaux en introduisant une certaine anisotropie. Cet agencement, comme de nombreux matériaux naturels le prouvent, peut même sous certaines conditions faire émerger de nouvelles caractéristiques. Au cours de ces trois années, nous avons utilisé l’ « ice templating » (texturation à la glace) pour déclencher l’alignement de plaquettes de dimensions microniques, le but final étant de répliquer la microstructure de la nacre. Cette technique induit la ségrégation des constituants d’une suspension à l’échelle du micron tout en obtenant des échantillons de quelques centimètres cubes. Ce procédé a permis la création de matériaux inorganique avec une microstructure semblable à la nacre, en additionnant trois niveaux de contrôles successifs : l’alignement local des plaquettes, l’alignement à longue distance des cristaux de glaces et enfin le contrôle de l’interface entre ces-mêmes plaquettes. L’utilisation d’une modélisation par éléments discrets nous a permis d’étudier la dynamique de l’auto-assemblage des particules anisotropes. Ce modèle, parce qu’il tient compte de la dynamique du procédé, nous a révélé comment l’organisation de ces particules se produit. La tomographie par rayon X a permis de visualiser les structures finales des échantillons et d’attester de la pertinence du modèle. L’alignement local des plaquettes dans les parois générées par la solidification de la glace peuvent accroître les propriétés fonctionnelles et structurales de composites. Dans ce cadres deux applications ont été étudiées : la conduction thermique dans des composites nitrure de bore hexagonal / silicone et les propriétés mécaniques d’alumine macroporeuses. Une adaptation du procédé a permis d’obtenir l’alignement à longue distance (quelques centimètres) des cristaux de glaces. Différents outils ont été développés pour caractériser la réponse fonctionnelle de ce type de composite en fonction de leurs architectures aux deux échelles considérées (celles des macropores et parois). Enfin, après la mise en place de ces deux niveaux de contrôle sur la structure, l’addition d’une phase vitreuse inorganique et de nanoparticules aux joints de grains des plaquettes a introduit, de façon similaire à la nacre, des interfaces pouvant dévier et arrêter la propagation de fissures. / Self-assembly phenomena are of prime interest in materials science, because they fill the gap between assembly of macrostructure and processing of nanomaterials. Self-assembly is based on the spontaneous organization of individual small constituents into patterns and structures. Controlling the spatial arrangement can possibly improve materials properties by maximizing its response in a given direction. Furthermore, particular types of spatial arrangement, such as found in natural structures, can even induce new properties. During the past three years, we have used ice templating process to trigger the assembly of platelet-shaped particles to replicate the hierarchical structure of nacre. Control over this technique allowed structural customization at different length-scales: local orientation of the platelets, ice crystal long range order, and the control if the interfaces between the platelets. This hierarchical process has set the ground for the creation of a new fully mineral nacre-like alumina. The local platelet self-assembly triggered by ice growth was investigated by Discrete Element Modelling which provided new insight into the dynamic phenomenon responsible for the particles alignment. Synchrotron X-ray tomography was used to validated the model results. The different architecture observed in the final samples are not the result of a percolation threshold, as one could expect, but is instead a consequence of the delicate balance between pushing and engulfment at the solidification front. The local alignment of platelets can be beneficial for the functional and structural characteristics of composites and relevant aspects for two potential applications were investigated: the thermal properties of the hexagonal boron nitride/silicon rubber composites and the mechanical properties of macroporous alumina. Further adaptation of the process allowed for long range ordering of the ice crystals (up to the centimeter scale). Different tools have also been developed in order to characterize the response of composites as a function of the architecture at the level of the macropores and particle organisation. Once those two levels of alignment were achieved, the addition of a glassy phase and nanoparticles to the grain boundaries of the platelets introduces, just like in nacre, interfaces capable of deflect and even stopping crack propagation.

Page generated in 0.4905 seconds