• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 403
  • 134
  • 37
  • 18
  • 3
  • 2
  • 1
  • Tagged with
  • 584
  • 253
  • 112
  • 102
  • 77
  • 71
  • 68
  • 66
  • 64
  • 52
  • 49
  • 47
  • 46
  • 45
  • 43
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Développement d’un mur capteur-stockeur solaire pour le chauffage des bâtiments à très basse consommation d’énergie / Experimental tests and modeling of a solar storage wall for low energy consumption building

Basecq, Vincent 28 September 2015 (has links)
L’exploitation des énergies renouvelables est une voie nécessaire afin de lutter contre le réchauffement climatique, et afin d’anticiper la raréfaction des matières premières. Le mur capteur/stockeur solaire appliqué aux bâtiments à très basses consommations d’énergie s’inscrit dans cette volonté d’une transition vers les énergies renouvelables. Dans le cadre de ces travaux de thèse, l’énergie solaire est stockée dans des matériaux à changement de phase qui permettent un stockage de chaleur latente plus dense que le stockage sensible des matériaux de construction traditionnels. Cette énergie est restituée à l’ambiance intérieure par la circulation d’air neuf à travers l’élément de stockage. Un mur capteur/stockeur solaire a été développé en s’appuyant sur une revue bibliographique préalable des différents travaux scientifiques menés pour des problématiques similaires. Le dispositif a été expérimenté en environnement réel dans un premier temps, intégré à l’enveloppe d’un petit bâtiment en bois fortement isolé. La quantité de chaleur captée par le mur peut atteindre 2 kWh.m-2.jour-1, pour une quantité de chaleur restituée à l’air de 1,5 kWh.jour-1. Le dispositif a été testé en conditions maîtrisées de laboratoire. Une attention particulière a été portée à la mesure de température au sein même du MCP, afin d’analyser le comportement thermique de ce dernier. Deux phénomènes ont été observés : le recouvrement de la phase liquide sur la phase solide et l’homogénéisation des températures en phase liquide. Le comportement thermique du MCP dépend des interactions entre trois flux : le flux de charge (apport solaire), le flux de décharge (énergie restituée à l’air) et un flux vertical induit par le recouvrement de la phase liquide sur la phase solide. Par ailleurs, un modèle numérique dynamique du mur capteur a été développé en volumes finis. Ce modèle permet de simuler l’effet de serre du mur capteur, le stockage de chaleur et les phases de solidification et de fusion du MCP, et la restitution de chaleur à l’air entrant dans le bâtiment. Les résultats numériques alors obtenus ont été confrontés aux données expérimentales. Le modèle a été validé pour la température d’air soufflée (en sortie du mur capteur). L’écart entre valeurs expérimentales, sur des périodes journalières, est en moyenne de 0,6°C pour la température d’air soufflé et est inférieur à 10 % pour l’énergie fournie à l’air préchauffé. Ces différences sont inférieures aux incertitudes de mesures et à l’incertitude du calcul énergétique. Le modèle ainsi validé peut être couplé au code de simulation thermique dynamique du bâtiment TRNSYS. / Use of renewable energy is a necessary way to fight global warming and to anticipate scarcity of raw materials. The solar/storage wall used in buildings with lower energy consumption meets this evolution to renewable energy sources. In this thesis, solar energy is stored in a phase charge material (PCM), which provides latent storage. The latent storage is higher than sensible storage in usual building materials. This energy is restored to indoor air, by circulation and heating of inlet air through the wall storage element. In this thesis work, the solar storage wall was developed, based on previous published works dealing with similar systems. An experiment has been carried out with the solar storage integrated in a small wood building with a high insulation. The solar energy recovered by the wall reaches 2 kWh.m-2.day-1 and 1,5 kWh.day-1 was restored to air. In a second experiment, a prototype was developed to be used in controlled laboratory conditions. Special attention was given to PCM temperature measures to analyze the PCM thermal behavior. Two phenomena were observed: (i) liquid phase recovering solid phase, (ii) temperature homogenization in liquid phase. The PCM thermal behavior depends on interactions between three energetic flows: the charge flow (solar energy recovered), the restored flow (energy restored to the inlet air) and a vertical flow created by the liquid phase recovering. Furthermore, a numerical dynamic model for the solar storage wall was developed. It is based on a finite volume approach. This model simulates: (i) the ground effect in a solar wall, (ii) the thermal energy storage and phase changes, and (iii) heat recovery energy to air inlet. Numerical results were compared to experimental values. The model was validated for air temperature for daily cycle defined with a charge period (during sunning) and a continue air heating. The difference between numerical values and experimental values are lower than 0.6°C in mean temperature, and 10% in energy. This difference is lower than measurement uncertainties and energy calculation error margins. So the model is valeted and can be coupled with the dynamic thermal simulation code: TRNSYS.
492

Exposure of endothelial cells to physiological levels of myeloperoxidase modified LDL delays pericellular fibrinolysis and reduces cell motility

Daher, Jalil 10 March 2014 (has links)
Cardiovascular diseases are considered the first cause of death in westernized societies. They are directly linked to atherosclerosis, a clinical condition characterized by a thickening of the arterial wall. Atherosclerosis is in his turn linked to various genetic and environmental factors; among those factors are high oxidized LDL levels and endothelial dysfunction. In the present study, we have analyzed in vitro the effect of myeloperoxidase oxidized LDL on endothelial cells at the level of fibrinolysis and cell motility.<p>In the first part of the work, we measured fibrinolysis in real time at the surface of endothelial cells. Our results suggest that myeloperoxidase oxidized LDL interferes with the regulation of fibrinolysis by endothelial cells by decreasing their pro-fibrinolytic activity. This effect was not related to a modification in expression of major regulators of fibrinolysis such as PAI-1 and t-PA. Our data link the current favorite hypothesis that oxidized LDL has a causal role in atheroma plaque formation with an old suggestion that fibrin may also play a causal role. A model that best explains our results would be as follows: oxidized LDL increases fibrin deposition on endothelial cells which will increase their permeability resulting in more oxidized LDL infiltration into the subendothelial space of the arterial wall initiating atherogenesis. <p>In the second part of the work, we investigated the effect of myeloperoxidase oxidized LDL at the level of endothelial cell motility. We have shown that oxidized LDL is able to decrease cell migration, wound healing and tubulogenesis in endothelial cells. Those effects were not associated with any alteration at the level of neither cell viability nor proliferation. Subsequent gene expression analyses enabled us to link the oxidized LDL induced phenotypical changes in the cells to a change in expression of both microRNA-22 and Heme Oxygenase 1 genes. Our observations suggest a novel role of oxidized LDL not only as an important factor in the initiation of atheromatous lesions, but also as a potential player in the progression of the atherosclerosis disease by impeding blood vessel repair and wound healing at the sites of lesions.<p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
493

Développement d'un simulateur pour le X-ray integral field unit : du signal astrophysique à la performance instrumentale / Development of an End-to-End simulator for the X-ray Integral Field Unit : from the astrophysical signal to the instrument performance

Peille, Philippe 28 September 2016 (has links)
Cette thèse est consacrée au développement d'un modèle End-to-End pour le spectrocalorimètre X-IFU qui observera à partir de 2028 l'Univers en rayons X avec une précision jamais atteinte auparavant. Ce travail s'est essentiellement organisé en deux parties. J'ai dans un premier temps étudié la dynamique des parties les plus internes des binaires X de faible masse à l'aide de deux sondes particulières que sont les sursauts X et les oscillations quasi-périodiques au kHz (kHz QPOs). En me basant sur les données d'archive du satellite Rossi X-ray Timing Explorer et sur des méthodes d'analyse spécifiquement développées dans ce but, j'ai notamment pu mettre en évidence pour la première fois une réaction du premier sur le second, confirmant le lien très étroit entre ces oscillations et les parties les plus internes du système. Le temps de rétablissement du système suite aux sursauts entre également en conflit dans la plupart des cas avec l'augmentation supposée du taux d'accrétion suite à ces explosions. Au travers d'une analyse spectro-temporelle complète des deux kHz QPOs de 4U 1728-34, j'ai également pu confirmer l'incompatibilité des spectres de retard des deux QPOs qui suggère une origine différente de ces deux oscillations. L'étude de leurs spectres de covariance, obtenus pour la première fois dans cette thèse, a quant à elle mis en évidence le rôle central de la couche de Comptonisation et potentiellement celui d'une zone particulièrement compacte de la couche limite pour l'émission des QPOs. Dans le second volet de ma thèse, j'ai développé un simulateur End-to-End pour l'instrument X-IFU permettant de représenter l'ensemble du processus menant à une observation scientifique en rayons X, de l'émission des photons par une source jusqu'à leur mesure finale à bord du satellite. J'ai notamment mis en place des outils permettant la comparaison précise de plusieurs matrices de détecteurs en prenant en compte les effets de la reconstruction du signal brut issu des électroniques de lecture. Cette étude a mis en évidence l'intérêt de configurations hybrides, contenant une sous-matrice de petits pixels capables d'améliorer par un ordre de grandeur la capacité de comptage de l'instrument. Une solution alternative consisterait à défocaliser le miroir lors de l'observation de sources ponctuelles brillantes. Situées au coeur de la performance du X-IFU, j'ai également comparé de manière exhaustive différentes méthodes de reconstruction des signaux bruts issus des détecteurs X-IFU. Ceci a permis de montrer qu'à faible coût en termes de puissance de calcul embarquée, une amélioration significative de la résolution en énergie finale de l'instrument pouvait être obtenue à l'aide d'algorithmes plus sophistiqués. En tenant compte des contraintes de calibration, le candidat le plus prometteur apparaît aujourd'hui être l'analyse dans l'espace de résistance. En me servant de la caractérisation des performances des différents types de pixels, j'ai également mis en place une méthode de simulation rapide et modulable de l'ensemble de l'instrument permettant d'obtenir des observations synthétiques à long temps d'exposition de sources X très complexes, représentatives des futures capacités du X-IFU. Cet outil m'a notamment permis d'étudier la sensibilité de cet instrument aux effets de temps mort et de confusion, mais également d'estimer sa future capacité à distinguer différents régimes de turbulence dans les amas de galaxies et de mesurer leur profil d'abondance et de température. A plus long terme ce simulateur pourra servir à l'étude d'autres cas scientifiques, ainsi qu'à l'analyse d'effets à l'échelle de l'ensemble du plan de détection tels que la diaphonie entre pixels. / This thesis is dedicated to the development of an End-ta-End model for the X-IFU spectrocalorimeter scheduled for launch in 2028 on board the Athena mission and which will observe the X-ray universe with unprecedented precision. This work has been mainly organized in two parts. I studied first the dynamics of the innermost parts of low mass X-ray binaries using two specific probes of the accretion flow: type I X-ray bursts and kHz quasi-periodic oscillations (kHz QPOs). Starting from the archivai data of the Rossi X-ray Timing Explorer mission and using specific data analysis techniques, I notably highlighted for the first time a reaction of the latter to the former, confirming the tight link between this oscillation and the inner parts of the system. The measured recovery time was also found in conflict with recent claims of an enhancement of the accretion rate following these thermonuclear explosions. From the exhaustive spectral timing analysis of both kHz QPOs in 4U 1728-34, I further confirmed the inconsistancy of their lag energy spectra, pointing towards a different origin for these two oscillations. The study of their covariance spectra, obtained here for the first time, has revealed the key role of the Comptonization layer, and potentially of a more compact part of it, in the emission of the QPOs. In the second part of my thesis, I focused on the development of an End-to-:End simulator for the X-IFU capable of depicting the full process leading to an X-ray observation, from the photon emission by the astrophysical source to their on-board detection. I notably implemented tools allowing the precise comparison of different potential pixel array configurations taking into account the effects of the event reconstruction from the raw data coming from the readout electronics. This study highlighted the advantage of using hybrid arrays containing a small pixel sub-array capable of improving by an order of magnitude the count rate capability of the instrument. An alternative solution would consist in defocusing the mirror during the observation of bright point sources. Being a key component of the overall X-IFU performance, I also thoroughly compared different reconstruction methods of the pixel raw signal. This showed that with a minimal impact on the required on-board processing power, a significant improvement of the final energy resolution could be obtained from more sophisticated reconstruction methods. Taking into account the calibration constraints, the most promising candidate currently appears to be the so-called "resistance space analysis". Taking advantage of the obtained performance characterization of the different foreseen pixel types, I also developed a fast and modular simulation method of the complete instrument providing representative synthetic observations with long exposure times of complex astrophysical sources suffinguish different turbulence regimes in galaxy clusters and to measure abundance and temperature profiles. In the longer run, this simulator will be useful for the study of other scientific cases as well as the analysis of instrumental effects at the full detection plane level such as pixel crosstalk.
494

Formation de poudres carbonées dans un plasma de haute fréquence produit à très basse pression dans des mélanges acétylène-argon

Al Makdessi, Georges 08 1900 (has links)
Dusty plasmas are plasmas that contain solid particles of nano- or micrometer size. They are widespread in the cosmic environment and act as precursors in the formation of planets and stars. Such plasmas are also used in laboratories for the synthesis of nanocomposites, which have wide technological and medical applications. While a large scientific effort has been invested in the study and control of such plasmas, the initial growth mechanism of powders (i.e. before they reach several tens of nanometers) remains poorly known. This work contributes primarily to expand the fundamental knowledge in the field of dusty plasmas. Our goal is to understand the physical chemistry of high-frequency plasmas magnetically confined in chemically reactive gases. In addition, we aim by examining the kinetics of the precursors in the plasma to understand the mechanisms of nanoparticle formation in the volume and to control their characteristics in a magnetically confined low pressure Ar/C2H2 plasma. This contribution has a direct impact on science and plasma applications. Among the applications related directly to this research, we mention the synthesis of carbon-based nanocomposites for their integration in solar cells and biomaterials. By examining the plasma characteristics (plasma temperature and density, cation and anion density) and correlating them to those of the dust particles, we found that the magnetic field changes the process of the formation of these particles in the discharge at very low pressure. Specifically, it stimulates the nucleation of carbon nanoparticles through several channels, i.e. through the anions and cations. These nanoparticles include two different phases, an amorphous carbon layer and a porous core formed of grains aggregate. These grains are formed of graphite nanocrystals coated with an amorphous layer. Moreover, the radius of the dust particles increases with the magnetic field, which is related to the enhancement of their residence time in the plasma volume. / Les plasmas poudreux sont des plasmas qui contiennent des particules solides de taille nano- ou même micrométrique. Ils sont répandus dans l'environnement cosmique et jouent le rôle de précurseurs dans la formation des planètes et des étoiles. Ce type de plasma est également utilisé dans les laboratoires pour la synthèse des nanocomposites possédant de vastes applications dans le monde technologique et médical. Tandis qu’un grand effort scientifique a été investi dans l’étude et le contrôle de ce type de plasmas, les mécanismes initiaux de formation des poudres (i.e. avant qu’elles atteignent quelques dizaines de nanomètres) demeurent très peu connus. On sait toutefois que des réactions physico-chimiques sont à l’origine de précurseurs des poudres qui déclenchent la nucléation. Ce travail contribue en premier lieu à accroître les connaissances fondamentales dans le domaine des plasmas poudreux en général. Il s’agit en particulier de comprendre la physico-chimie des plasmas de haute fréquence de très basse pression soumis à un confinement magnétique dans des gaz chimiquement réactifs. Plus spécifiquement, l’objectif de ce travail est d’examiner la cinétique des précurseurs produits dans le plasma afin de comprendre les mécanismes de formation de nanoparticules en volume et le contrôle de leurs caractéristiques dans des mélanges d’Ar/C2H2 de très basse pression confinés magnétiquement. Cet apport a des retombées directes en science et applications des plasmas. Parmi les applications directement visées par cette recherche, notons la synthèse de nanomatériaux composites à base de carbone pour leur intégration dans les cellules solaires et les biomatériaux. En examinant les caractéristiques du plasma (température et densité du plasma, densité des cations et des anions) et en les corrélant à celles des particules de poudre, on constate que le champ magnétique modifie le processus de la formation des particules poudreuses dans la décharge à très basse pression. Plus précisément, il favorise la nucléation des nanoparticules de carbone à travers plusieurs voies impliquant les anions et les cations. Ces nanoparticules comprennent deux phases différentes, une couche de carbone amorphe et un noyau poreux formé d'un agrégat de grains eux-mêmes constitués de nanocristaux de graphite revêtus d'une couche amorphe. On constate que le rayon moyen des particules de poudre augmente avec le champ magnétique, ce qui est lié à l’amélioration de leur temps de résidence dans le volume du plasma.
495

Adaptive body biasing system for margins reduction using delay and temperature monitoring at near threshold operation / Conception à très faible tension en technologie avancée, vers une définition d'architecture de systèmes autonomes, optimisés spécifiquement pour la faible tension comprenant la compensation des conditions environnementales et la variabilité

Saligane, Mehdi 21 September 2016 (has links)
La conception de circuit à très faible tension d'alimentation est un moyen depuis longtemps connu pour diminuer la consommation d'énergie des circuits pour un même service rendu [VITTOZ weak inversion]. La faible tension permet de gagner à la fois en courant de fuite [K ROY leakage] et surtout en courant dynamique qui reste la partie de l'énergie consommée la plus ardue a maîtriser. Elle s'accompagne d'un délai multiplié par plusieurs ordres de grandeur et une sensibilité accrue aux variations de paramètres des dispositifs. Cette variation étant plus grande dans les technologies récentes, la conception à très faible tension était jusqu'à récemment limitée aux nœuds technologiques en deçà de 40nm, mais des avancées récentes en technologie 32nm ont été publiés [TI ISSCC2011]. Un premier travail de thèse [ABOUZEID PhD], a permis de confirmer la faisabilité de la conception de circuit ULV. Plus précisément ont été démontrées : · une méthodologie de conception de cellules logiques en technologie 90nm, 65nm, 45nm et 40nm · une adaptation des flots automatiques d'implémentation et de vérification en 40nm · un précurseur de SRAM en CMOS65nm Sur cette base le présent travail de thèse consistera en l'élargissement de l'éventail du champ de conception ULV vers la gestion d'alimentation, la compensation des conditions environnementales et l'optimisation architecturale afin de préparer l'industrialisation de futures applications ULV. / IoT applications continue to push towards ultra-low-power constrained ASICs, creating severe challenges to achieve sufficient power efficiency in extreme Voltage and Temperature conditions. Thus, it is necessary to build closed-loop compensation systems that are autonomous to environmental conditions especially temperature at sub-threshold regime. Two major work are proposed: an adaptive techniques that allow to enhance the performance of designs that leverage aggressive voltage scaling. we fully exploits the FD-SOI 28nm technology dual gate capabilities to both attain optimal power efficiency points and compensate for gradual changes in overall device performance due to process, voltage, and temperature variations. Our proposed compensation Unit system is a fully-digital error-prediction solution providing a compromise between industry reliability requirements and manufacturing guard-band reduction with low-invasiveness and post-silicon tunability. Critical-Paths timing monitors are distributed across the processor and tuned to match the closest critical paths. A programmable workload emulator allows to adapt and take into account the processor tasks. Generated warning Flags due to V-T variations are analyzed based on an adjustable warning rate and body bias is adapted correspondingly. Based on the operation voltage, either fine or coarse body biasing can be activated for compensation. The second part of this thesis addresses on-chip temperature monitoring that plagues aggressively voltage scaled ASICs. We propose to closely monitor temperature fluctuations at low-voltage but also hot-spot detection at nominal and over-drive supply voltage conditions.
496

Study of negative ion surface production in cesium-free H2 and D2 plasmas : application to neutral beam injectors for ITER and DEMO / Etude de la production en surface d'ions négatifs en plasma d'hydrogène et de deutérium : applications à la nouvelle génération d'injecteurs d'ITER et DEMO

Achkasov, Kostiantyn 09 December 2015 (has links)
L'objectif de cette thèse était trouver des solutions pour produire de hauts rendements d’ions négatifs (IN) H–/D– sur des surfaces dans des plasmas de H2/D2 sans Cs pour des applications en fusion thermonucléaire. La modélisation des fonctions de distribution en énergie des ions négatifs (FDEIN) a montré un accord remarquable avec l'expérience pour les matériaux carbonés. Une méthode de reconstruction mis au point dans le cadre de cette thèse a permis de déterminer les distributions en énergie et en angle des IN émis de la surface. La méthode de reconstruction peut être appliquée à tout type de surface et/ou d’IN. Une étude de la production des IN en surface a été réalisée sur une grande variété de matériaux (des différents types de graphite, couches de diamant et métaux). L'influence sur le rendement des IN de la température de surface, de la tension de polarisation et du temps d'exposition au plasma a été étudiée. Une méthode de polarisation pulsée a été développée pour permettre l'étude de production des IN sur les surfaces de matériaux isolants tels que le diamant microcristallin non dopé. L'utilisation de diagnostics de surface ex situ tels que la désorption programmée en température (DPT) et la spectroscopie Raman ont permis de caractériser l'état de surface des matériaux carbonés. L’ensemble des études a permis de montrer que pour optimiser le rendement des IN sur le diamant, il faut travailler avec une surface moins dégradée. Celle ci peut être obtenu en augmentant la température de surface jusqu’à 400°C – 500°C ce qui permet de restaurer les propriétés intrinsèques des diamants ou en appliquant une polarisation pulsée. / The objective of this thesis was to find solutions to produce high yields of H–/D– negative ions (NI) on surfaces in Cs-free H2/D2 plasmas for thermonuclear fusion applications. Modeling of the negative-ion energy distribution functions (NIEDF) has shown remarkable agreement with experiment for carbon materials. The reconstruction method developed in the course of this thesis has allowed to determine the distribution in energy and angle of NI emitted from the surface. The reconstruction method can be applied to any type of surface and/or NI. A study was performed on a large variety of materials: different types of graphite, diamond films and metals. The influence of surface temperature, bias and plasma exposure time on NI yield was investigated. The method of pulsed bias was developed to enable the study of NI production on surfaces of insulating materials such as microcrystalline non-doped diamond (MCD). The use of ex situ surface diagnostics such as temperature programmed desorption (TPD) and Raman spectroscopy has allowed to characterize the surface state of carbon materials. Basing on the performed studies, we demonstrated that to optimize the NI yield on diamond one has to work with a less degraded surface. This can be obtained rising the surface temperature to 400°C–500°C which allows restoring intrinsic properties of diamond. The less degraded surface state can also be obtained by applying the pulsed bias which gives the possibility to increase the H2/D2 surface coverage and diminish the defects induced by plasma exposure.
497

Etude en fretting usure sous hautes températures d'un contact Waspaloy/René125 : formation et stabilité des "glaze layers" / Study of Nickel based super-alloys under fretting wear sollicitations at high temperature : Glaze layer effect

Alkelae, Fathia 18 May 2016 (has links)
Les alliages à base de Nickel constituent les meilleurs matériaux actuellement développés pour répondre aux sollicitations sous hautes températures dans les domaines de l’aéronautique du nucléaire etc… L’objectif de ce travail de thèse est d’étudier leur comportement en température sous sollicitations de fretting usure. Dans cette étude, on s’intéresse à un contact René125/Waspaloy représentatif d’une application aéronautique. Dans un premier temps nous avons étudié l’effet de la température. On montre qu’à partir de 400°C, l’interface génère la formation d’une glaze layer lubrifiante qui réduit considérablement la cinétique de l’usure. En fixant la température à 700°C (température de l’application industrielle), nous avons étudié la stabilité de ces couches protectrices vis-à-vis de la pression de contact, de l’amplitude de glissement, de la fréquence et du nombre de cycle appliqués. Cette analyse montre une évolution bilinéaire de l’usure avec une usure initiale rapide liée à la formation de la « glaze layer » puis une usure additionnelle quasiment nulle dès que la « glaze layer » est formée. Ces travaux montrent que le volume d’usure associée à la formation de la « glaze layer » est fonction de la vitesse de glissement. Au dessus d’une vitesse seuil de glissement, la formation de la « glaze layer » protectrice devient plus difficile. Une courbe maîtresse est ainsi établie. Des analyses chimiques des interfaces associées à des essais interrompus ont permis d’établir le scénario de formation de ces glaze layers. Pour finir, une étude comparative des revêtements développés dans le cadre du projet INNOLUB a été menée de façon à sélectionner le revêtement offrant les meilleures propriétés tribologiques pour l’application étudiée. / Nickel based alloys are the most developed materials nowadays for applications at high temperature, as in aeronautics, nuclear…The aim of this study is to understand their behavior at high temperature under fretting wear solicitations. Thereby, we had focused on a tribosystem formed of Waspaloy/René 125, which represent the crankcase/blade contact of the low pressure Turbine. We started studying the temperature effect, it is been noticed that above T = 400°C, a lubricant tribofilm, called the Glaze Layer is generated at the interface of the contact, which enable an abrupt reduction in friction and wear rate. The temperature was than fixed at 700°C (service temperature), so the glaze layer stability was analyzed as a function of contact pressure, sliding amplitude, frequency and number of cycles imposed. This analysis shows a bilinear wear evolution, characterized by a fast initial wear related to the formation of the glaze layer, followed by almost no wear once the glaze layer is formed. This study showed that the wear rate related to the glaze layer formation is dependent of the sliding velocity. Above a sliding velocity threshold, the formation of a stabilized glaze layer is quite difficult. A Master curve is here established. Microscopic and spectroscopic investigations are conducted to analyze the interface based on interrupted tests of a very short duration. Leading to a precise description of the glaze layer formation mechanisms. At the end of this study, a comparative analysis of different coatings developed to improve these components behavior, in the framework of INNOLUB project was established, allowing choosing the coating offering the best tribological properties and lifetime.
498

Conception et procédés de fabrication avancés pour l’électronique ultra-basse consommation en technologie CMOS 80 nm avec mémoire non volatile embarquée / Design and advanced manufacturing processes for ultra low-power electronic in CMOS 80 nm technology with embedded non-volatile memory

Innocenti, Jordan 10 December 2015 (has links)
L’accroissement du champ d’application et de la performance des microcontrôleurs s’accompagne d’une augmentation de la puissance consommée limitant l’autonomie des systèmes nomades (smartphones, tablettes, ordinateurs portables, implants biomédicaux, …). L’étude menée dans le cadre de la thèse, consiste à réduire la consommation dynamique des circuits fabriqués en technologie CMOS 80 nm avec mémoire non-volatile embarquée (e-NVM) ; à travers l’amélioration des performances des transistors MOS. Pour augmenter la mobilité des porteurs de charge, des techniques de fabrication utilisées dans les nœuds les plus avancés (40 nm, 32 nm) sont d’abord étudiées en fonction de différents critères (intégration, coût, gain en courant/performance). Celles sélectionnées sont ensuite optimisées et adaptées pour être embarquées sur une plate-forme e-NVM 80 nm. L’étape suivante est d’étudier comment transformer le gain en courant, en gain sur la consommation dynamique, sans dégrader la consommation statique. Les approches utilisées ont été de réduire la tension d’alimentation et la largeur des transistors. Un gain en consommation dynamique supérieur à 20 % est démontré sur des oscillateurs en anneau et sur un circuit numérique conçu avec près de 20 000 cellules logiques. La méthodologie appliquée sur le circuit a permis de réduire automatiquement la taille des transistors (évitant ainsi une étape de conception supplémentaire). Enfin, une dernière étude consiste à optimiser la consommation, les performances et la surface des cellules logiques à travers des améliorations de conception et une solution permettant de réduire l’impact de la contrainte induite par l’oxyde STI. / The increase of the scope of application and the performance of microcontrollers is accompanied by an increase in power consumption reducing the life-time of mobile systems (smartphones, tablets, laptops, biomedical implants, …). Here, the work consists of reducing the dynamic consumption of circuits manufactured in embedded non-volatile memories (e-NVM) CMOS 80 nm technology by improving the performance of MOS transistors. In order to increase the carriers’ mobility, manufacturing techniques used in the most advanced technological nodes (40 nm, 32 nm) are firstly studied according to different criteria (process integration, cost, current/performance gain). Then, selected techniques are optimized and adapted to be used on an e-NVM technological platform. The next step is to study how to transform the current gain into dynamic power gain without impacting the static consumption. To do so, the supply voltage and the transistor widths are reduced. Up to 20 % in dynamic current gain is demonstrated using ring oscillators and a digital circuit designed with 20,000 standard cells. The methodology applied on the circuit allows automatic reduction to all transistor widths without additional design modifications. Finally, a last study is performed in order to optimize the consumption, the performance and the area of digital standard cells through design improvements and by reducing the mechanical stress of STI oxide.
499

The two-dimensional Bose Gas in box potentials / Le Gaz de Bose à deux dimensions dans des potentiels en boîtes

Corman, Laura 02 June 2016 (has links)
Les gaz quantiques atomiques constituent un outil de choix pour étudier la physique à N corps grâce à leurs nombreux paramètres de contrôle. Ils offrent la possibilité d’explorer la physique en basse dimension, modifiée par rapport au cas à trois dimensions (3D) à cause du rôle accru des fluctuations. Dans ce travail, nous étudions le gaz de Bose à deux dimensions (2D) avec un confine-ment original dans le plan atomique, uniforme et de motif arbitraire. Ces gaz2D et uniformes, développés sur un montage existant, ont été installés sur un nouveau montage grâce à des potentiels optiques polyvalents.Nous présentons une série d’expériences exploitant cette géométrie flexible.D’abord, nous étudions le comportement statique et dynamique d’un gaz uni-forme lors de la transition d’un état 3D normal vers un état 2D superfluide.Nous observons l’établissement de la cohérence de phase dans un gaz à l’équilibre puis nous montrons l’apparition après une trempe de défauts topologiques dont le nombre est comparé à la prédiction de Kibble-Zurek. Ensuite, nous étudions grâce au nouveau montage les effets collectifs dans l’interaction lumière-matière, où les propriétés de résonance d’un nuage d’atomes dense sont fortement modifiées par rapport à celles d’un atome unique. Enfin, nous proposons deux protocoles pour le nouveau montage. Le premier permet d’évaporer de manière uniforme un gaz 2D grâce au réseau incliné du confinement à 2D. Le second propose de produire des supercourants de manière déterministe dans des pièges en anneaux, soit par condensation dans un champ de jauge, soit en réalisant une pompe à vortex topologique. / Degenerate atomic gases are a versatile tool to study many-body physics. They offer the possibility to explore low-dimension physics, which strongly differs from the three dimensional (3D) case due to the enhanced role of fluctuations. In this work, we study degenerate 2D Bose gases whose original in-plane confinement is uniform and of arbitrary shape. These 2D uniform traps, which we first developed on an existing set-up, were subsequently implemented on a newset-up using versatile optical potentials. We present a series of experiments that take advantage of this flexible geometry. First, we study the static and dynamic behaviours of a uniform gas at the transition between a 3D normal and a 2D superfluid state. We observe the establishement of extended phase coherence, followed, as the gas is quench cooled, by the apparition of topological defects whose scaling is compared to the Kibble-Zurek prediction. Second, we present the first results of the new set-up : we investigate collective effects in light-matter interactions, where the resonance properties of a dense ensemble of atoms are strongly modified with respect to the single atom ones. Last, we develop two experimental proposals for the new set-up. The first one studies how a 2D gas can be uniformly evaporated using the tilted lattice providing the 2D confinement. In the second one, we propose to produce su-percurrents in a deterministic way in ring-shaped traps either by condensing inan artificial gauge field or by implementing a topological vortex pump.
500

Conception sous incertitudes de modèles avec prise en compte des tests futurs et des re-conceptions / Optimizing the safety margins governing a deterministic design process while considering the effect of a future test and redesign on epistemic model uncertainty

Price, Nathaniel Bouton 15 July 2016 (has links)
Au stade de projet amont, les ingénieurs utilisent souvent des modèles de basse fidélité possédant de larges erreurs. Les approches déterministes prennent implicitement en compte les erreurs par un choix conservatif des paramètres aléatoires et par l'ajout de facteurs de sécurité dans les contraintes de conception. Une fois qu'une solution est proposée, elle est analysée par un modèle haute fidélité (test futur): une re-conception peut s'avérer nécessaire pour restaurer la fiabilité ou améliorer la performance, et le modèle basse fidélité est calibré pour prendre en compte les résultats de l'analyse haute-fidélité. Mais une re-conception possède un coût financier et temporel. Dans ce travail, les effets possibles des tests futurs et des re-conceptions sont intégrés à une procédure de conception avec un modèle basse fidélité. Après les Chapitres 1 et 2 qui donnent le contexte de ce travail et l'état de l'art, le Chapitre 3 analyse le dilemme d'une conception initiale conservatrice en terme de fiabilité ou ambitieuse en termes de performances (avec les re-conceptions associées pour améliorer la performance ou la fiabilité). Le Chapitre 4 propose une méthode de simulation des tests futurs et de re-conception avec des erreurs épistémiques corrélées spatialement. Le Chapitre 5 décrit une application à une fusée sonde avec des erreurs à la fois aléatoires et de modèles. Le Chapitre 6 conclut le travail. / At the initial design stage, engineers often rely on low-fidelity models that have high uncertainty. In a deterministic safety-margin-based design approach, uncertainty is implicitly compensated for by using fixed conservative values in place of aleatory variables and ensuring the design satisfies a safety-margin with respect to design constraints. After an initial design is selected, high-fidelity modeling is performed to reduce epistemic uncertainty and ensure the design achieves the targeted levels of safety. High-fidelity modeling is used to calibrate low-fidelity models and prescribe redesign when tests are not passed. After calibration, reduced epistemic model uncertainty can be leveraged through redesign to restore safety or improve design performance; however, redesign may be associated with substantial costs or delays. In this work, the possible effects of a future test and redesign are considered while the initial design is optimized using only a low-fidelity model. The context of the work and a literature review make Chapters 1 and 2 of this manuscript. Chapter 3 analyzes the dilemma of whether to start with a more conservative initial design and possibly redesign for performance or to start with a less conservative initial design and risk redesigning to restore safety. Chapter 4 develops a generalized method for simulating a future test and possible redesign that accounts for spatial correlations in the epistemic model error. Chapter 5 discusses the application of the method to the design of a sounding rocket under mixed epistemic model uncertainty and aleatory parameter uncertainty. Chapter 6 concludes the work.

Page generated in 0.0331 seconds