• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 405
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 631
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

La modélisation et le contrôle des services BigData : application à la performance et la fiabilité de MapReduce / Modeling and control of cloud services : application to MapReduce performance and dependability

Berekmeri, Mihaly 18 November 2015 (has links)
Le grand volume de données généré par nos téléphones mobiles, tablettes, ordinateurs, ainsi que nos montres connectées présente un défi pour le stockage et l'analyse. De nombreuses solutions ont émergées dans l'industrie pour traiter cette grande quantité de données, la plus populaire d'entre elles est MapReduce. Bien que la complexité de déploiement des systèmes informatiques soit en constante augmentation, la disponibilité permanente et la rapidité du temps de réponse sont toujours une priorité. En outre, avec l'émergence des solutions de virtualisation et du cloud, les environnements de fonctionnement sont devenus de plus en plus dynamiques. Par conséquent, assurer les contraintes de performance et de fiabilité d'un service MapReduce pose un véritable challenge. Dans cette thèse, les problématiques de garantie de la performance et de la disponibilité de services de cloud MapReduce sont abordées en utilisant une approche basée sur la théorie du contrôle. Pour commencer, plusieurs modèles dynamiques d'un service MapReduce exécutant simultanément de multiples tâches sont introduits. Par la suite, plusieurs lois de contrôle assurant les différents objectifs de qualités de service sont synthétisées. Des contrôleurs classiques par retour de sortie avec feedforward garantissant les performances de service ont d'abord été développés. Afin d'adapter nos contrôleurs au cloud, tout en minimisant le nombre de reconfigurations et les coûts, une nouvelle architecture de contrôle événementiel a été mise en œuvre. Finalement, l'architecture de contrôle optimal MR-Ctrl a été développée. C'est la première solution à fournir aux systèmes MapReduce des garanties en termes de performances et de disponibilité, tout en minimisant le coût. Les approches de modélisation et de contrôle ont été évaluées à la fois en simulation, et en expérimentation sous MRBS, qui est une suite de tests complète pour évaluer la performance et la fiabilité des systèmes MapReduce. Les tests ont été effectuées en ligne sur un cluster MapReduce de 60 nœuds exécutant une tâche de calcul intensive de type Business Intelligence. Nos expériences montrent que le contrôle ainsi conçu, peut garantir les contraintes de performance et de disponibilité. / The amount of raw data produced by everything from our mobile phones, tablets, computers to our smart watches brings novel challenges in data storage and analysis. Many solutions have arisen in the industry to treat these large quantities of raw data, the most popular being the MapReduce framework. However, while the deployment complexity of such computing systems is steadily increasing, continuous availability and fast response times are still the expected norm. Furthermore, with the advent of virtualization and cloud solutions, the environments where these systems need to run is becoming more and more dynamic. Therefore ensuring performance and dependability constraints of a MapReduce service still poses significant challenges. In this thesis we address this problematic of guaranteeing the performance and availability of MapReduce based cloud services, taking an approach based on control theory. We develop the first dynamic models of a MapReduce service running a concurrent workload. Furthermore, we develop several control laws to ensure different quality of service objectives. First, classical feedback and feedforward controllers are developed to guarantee service performance. To further adapt our controllers to the cloud, such as minimizing the number of reconfigurations and costs, a novel event-based control architecture is introduced for performance management. Finally we develop the optimal control architecture MR-Ctrl, which is the first solution to provide guarantees in terms of both performance and dependability for MapReduce systems, meanwhile keeping cost at a minimum. All the modeling and control approaches are evaluated both in simulation and experimentally using MRBS, a comprehensive benchmark suite for evaluating the performance and dependability of MapReduce systems. Validation experiments were run in a real 60 node Hadoop MapReduce cluster, running a data intensive Business Intelligence workload. Our experiments show that the proposed techniques can successfully guarantee performance and dependability constraints.
142

Evaluation de la fiabilité de diodes Laser 1064nm en régime impulsionnel critique pour des applications "seed" de laser à fibre forte puissance / Reliability investigation on 1064nm Laser diodes driven under high-current pulsed conditions for high-power fiber laser seeding applications

Le Galès, Germain 31 March 2017 (has links)
Un nombre croissant d’applications Laser nécessite l’utilisation de sources impulsionnelles présentant une grande modularité en termes de durée, de puissance et de fréquence des impulsions Laser générées. Ces sources s’appuient sur une architecture bien connue, basée sur un amplificateur de puissance à oscillateur maître (MOPA) et intégrée dans un grand nombre de systèmes d’amplification optique. Généralement, elle se compose d’une diode « seed » jouant le rôle d’un oscillateur « source » et pilotée en régime impulsionnel fournissant des impulsions optiques à un étage d’amplification (solide ou fibré), dopé avec des éléments terres rares (ex. Ytterbium). Néanmoins, la puissance crête émise par ce type de diodes dépasse rarement quelques centaines de mW. Afin d’obtenir, en sortie du « MOPA », des impulsions d’une puissance de plusieurs dizaines de kW, il est donc nécessaire de concevoir une chaîne d’amplification optique possédant un gain élevé mais en contrepartie susceptible de générer des phénomènes optiques non-linéaires néfastes à l’application. L’utilisation de diodes Laser monomode commercialisées, à très haute fiabilité, dans des régimes de polarisation en courant crête très élevé mais sous des durées d’impulsion très courtes (très inférieures à 1μs), apparaît comme une solution alternative mais impose d’être validée tant sur le plan de la caractérisation électro-optique de ces diodes que sur la robustesse de leurs performances dans ces régimes critiques de fonctionnement. / A growing number of Laser applications requires the use of pulsed sources with a large versatility in terms of duration, power and frequency of the generated Laser pulses. Such sources are based on the well-established “Master Optical Power Amplifier” architecture, and integrated into a large variety of optical amplification systems. Generally, it is composed of a “seed” diode, acting as a “source” oscillator, operated in pulse regime in order to produce optical pulses forwarded to an amplification stage (solid or fibered), doped with rare earth elements (ex. Ytterbium). However, the maximum output power delivered by such diodes barely reaches a few hundred mW. In order for the “MOPA” to produce output pulses with a peak power reaching a few tens of kW, it is necessary to design an amplification chain with a high optical gain but on the other hand susceptible to generate non-linear phenomena detrimental to the application. The use of commercialized and ultra-reliable single mode Laser diodes, operating in large overcurrent but under short pulse conditions (under 1μs), appears as an alternative solution, which, however, requires to be validated in terms of electro-optical characterizations as well as in terms of performances robustness under these critical conditions.
143

Evaluation de la fiabilité de composants optoélectroniques pour des applications spatiales : apport des caractérisations et des modélisations électro-optiques

Pedroza, Guillaume 21 December 2011 (has links)
Ce mémoire présente les résultats de travaux portant sur l’analyse de la fiabilité de diodes laser de pompe émettant à 980 nm et de photodiodes InGaAs pour des applications spatiales. La sévérité de l’environnement spatial (vide, radiations, contraintes thermomécaniques) impose d’évaluer la robustesse de ces deux technologies qui ont été spécialement conçues pour des applications de télécommunications sous-marines. L’objectif de ce mémoire est donc de proposer une méthodologie d’évaluation de la fiabilité en s’appuyant la caractérisation électro-optique, l’analyse physico-chimique et la modélisation. Les diodes laser ont été vieillies sous ultravide (pression de 10-7 mbar) pendant 5000h sous 800 mA et 60°C. Certains composants, dont l’herméticité du boîtier a été volontairement rompue, ont présenté des défaillances de type COD (Catastrophic Optical Damage). Les caractéristiques des composants, dont le boîtier est resté hermétique, n’ont cependant pas dérivé. Après avoir modélisé les caractéristiques électriques du composant, mené des analyses physiques (AFM, MEB, MET, cathodoluminescence et ToF-SIMS) et calculé la variation de la pression à l’intérieur du boîtier, nous avons estimé la durée de vie du composant fonctionnant sous ultravide à 26 ans.Les photodiodes ont été irradiées par des protons d’énergie comprise entre 30 et 190 MeV sous une fluence comprise entre 5.1010 et 1012 p/cm², entrainant une augmentation du courant d’obscurité de trois décades. La modélisation du courant d’obscurité a permis d’estimer la durée de vie du composant en environnement spatial à 15 ans.Ces travaux ont également contribué à mettre en évidence des mécanismes de dégradation peu documentés (COD sous vide, difficulté d’ajustement avec le NIEL, dégradation du réseau de Bragg exposé aux rayonnements ionisants), ce qui permet de mieux appréhender le comportement des diodes laser et des photodiodes exposées à l’environnement spatial. / In this work, the reliability of 980 nm pump laser diode and InGaAs photodiode modules has been estimated for space applications. The space environment is particularly harsh (vacuum, radiation, thermal and mechanical stresses) for these electro-optical devices, which were designed for long-haul submerged telecommunication applications. The main objective of this thesis is to provide a guideline for the space evaluation of optoelectronic devices, using characterization, physical analysis and modeling.Eight laser diodes were aged in vacuum (10-7 mbar) during 5000h, at 60°C and 800 mA bias current. The hermeticity of four of them was voluntarily broken to simulate a long term vacuum exposition. Three of four non-hermetic devices failed during the ageing, because of COD (Catastrophic Optical Damage) whereas the electro-optical characteristics of hermetic devices remained unchanged. The MTBF of laser diodes operating in vacuum was estimated to 26 years, by means of modeling (electro-optics and pressure) and physical analyses (AFM, SEM, TEM, cathodoluminescence, ToF-SIMS).InGaAs photodiodes were irradiated by protons, with energies ranging from 30 to 190 MeV and fluences ranging from 5.1010 to 1012 p/cm². The dark current increased by three decades after irradiation. The photodiode MTBF was then estimating to 15 years using dark current modeling.This study also permitted to show up almost new failure mechanisms (COD under vacuum, NIEL scaling errors in InGaAs, Bragg grating degradation under ionizing radiation and its effects on laser diode stabilization), which could contribute to the space evaluation of laser diodes and photodiodes for future missions.
144

Évaluation des méthodes d'analyse de la fiabilité des matrices de phototransistors bipolaires en silicium pour des applications spatiales / Reliability investigations of bipolar silicon phototransistor arrays for space applications

Spezzigu, Piero 03 December 2010 (has links)
[FR] Les travaux de thèse s'inscrivent dans le contexte d'une évaluation de la fiabilité de matrices de phototransistors bipolaires en technologie silicium pour des applications de codage optique angulaire en environnement spatial. Après un état de l'art relatif aux technologies des phototransistors et un rappel sur leur fonctionnement physique, les conditions environnementales spécifiques liées au domaine spatial sont décrites. La caractérisation des paramètres électro-optiques des phototransistors, associée à une phase préliminaire de métrologie, a été effectuée à partir de bancs dédiés. L'étude de la sensibilité aux charges mobiles de technologies issues de différents fondeurs, habituellement piégées aux interfaces et identifiée comme un mécanisme fortement pénalisant en terme de durée de vie opérationnelle, a permis d'optimiser et fiabiliser une nouvelle source européenne. Une méthodologie originale basée sur le concept des plans d'expérience « D-optimal » a été mise en œuvre et validée. L'objectif est d'estimer le taux de dégradation d'un ou de plusieurs paramètres clés du composant en fonction des conditions environnementales imposées par l'orbite de rotation du satellite à partir d'un nombre limité d'expériences réalisées au sol. / [EN] The research activities presented in this thesis are related to the specific contextof the qualification tests, for space missions, of new sources of silicon phototransistor arraysfor optical angular encoders. Our studies on a first source revealed the fragility of thattechnology in active storage and ionizing radiation because of its sensitivity to oxidestrapped charges. Then, a study on a second set of components was performed in order toanalyze the reliability of phototransistors subjected to several constraints in terms of bothionizing and displacement doses. The methodology of “Design of Experiments” was for thefirst time implemented and validated in this context. Thanks to this methodology, it ispossible to obtain an estimate of the degradation of one or more key parameters of thecomponent in environmental conditions for a given mission profile with a limited number ofexperiments. / [IT] Il lavoro di tesi s’inscrive nel contesto particolare della valutazione dell'affidabilità di matrici di fototransistor in tecnologia bipolare in silicio per applicazioni di codifica ottica angolare in ambiente spaziale. Dopo uno stato dell’arte riguardante le tecnologie di fototransistor, una breve descrizione dell’applicazione per cui i dispositivi studiati sono intesi, ed infine un richiamo sul loro funzionamento fisico, vengono descritte le condizioni ambientali specifiche legate al settore spaziale. La caratterizzazione dei parametri elettro-ottici dei fototransistor, associata ad una fase preliminare di metrologia, è stata effettuata a partire da banchi dedicati. Lo studio della sensibilità di diversi design di fototransistor agli effetti di cariche mobili intrappolate alle interfacce ossido-silicio, di solito identificata come un meccanismo fortemente penalizzante in termini di durata di vita operativa del dispositivo, ha permesso d'ottimizzare e accrescere l’affidabilità di fototransistor di un nuovo fabbricante europeo. Una metodologia originale basata sul concetto dei piani d'esperienza “D-optimal” è stata attuata e convalidata. L'obiettivo è di ottenere il tasso di degradazione di uno o più parametri chiave del dispositivo in funzione delle condizioni ambientali imposte dall'orbita in cui il satellite si troverà a operare, e a partire da un numero limitato d'esperienze realizzate a terra.
145

Improving OTM mechanical properties by controlling the pore architecture / Augmentation des propriétés mécaniques des membranes séparatif d'oxygène par contrôle de porosité

Seuba Torreblanca, Jordi 10 December 2015 (has links)
Les céramiques macroporeuses sont largement utilisées dans des applications telles que la filtration, l'isolation thermique, les scaffolds pour la croissance de tissus biologiques, les SOFC, ou encore les OTM. En plus d’une bonne stabilité mécanique, ces céramiques doivent généralement posséder une autre propriété fonctionnelle, comme une perméabilité élevée, une faible conductivité thermique, ou une biocompatibilité. Cependant, la résistance mécanique est généralement augmentée en diminuant le volume total des pores, même si cela peut dégrader d’autres propriétés fonctionnelles. Au-delà de la porosité, des paramètres morphologiques tels que la taille des pores, leur forme ou la tortuosité, peuvent devenir cruciaux pour maximiser les performances, tout en conservant une grande résistance mécanique. Une importante amélioration des propriétés mécaniques peut par exemple être obtenue par des structures anisotropes. Celles-ci renforcent les structures dans la direction de la contrainte principale, de manière similaire aux matériaux naturels tels que l'os trabéculaire, le liège ou le bois. Néanmoins, la plupart des techniques classiquement utilisées pour produire des céramiques macroporeuses ne proposent pas ce niveau de flexibilité. L’ ice-templating est une technique de mise en forme appropriée pour obtenir des matériaux macroporeux anisotropes. Elle est basée sur la congélation de suspensions colloïdales et la séparation ultérieure des particules par le front de solidification. Le solvant congelé est ensuite éliminé, en laissant des pores dont les morphologies sont une réplique des cristaux sublimés. Enfin, le matériau cru est fritté pour consolider la microstructure. Ce processus assure un contrôle indépendant de l'architecture des pores (volume des pores, la taille et la morphologie) à travers la fraction de solides initiale, la vitesse de refroidissement, ou les éventuels additifs. Par conséquent, une bonne compréhension de ces paramètres est essentielle afin d’établir un lien entre les procédés de mise en forme, la microstructure, et les performances de ce type de matériaux et d'étendre leur utilisation dans les applications mentionnées précédemment. L’objectif de ce travail est premièrement, d’adapter l'architecture des pores faits par l’ice-templating pour ensuite, déterminer les principaux paramètres des microstructures qui contrôlent la résistance à la compression, la fiabilité mécanique, et la perméabilité de ces matériaux poreux unidirectionnels. En outre, l'applicabilité des modèles de flux mécanistique et de flux de gaz sera discutée dans le contexte des morphologies de pores structurés. Enfin, nous allons fournir des lignes directrices pour produire des échantillons tubulaires produits par ice-templating. / Macroporous ceramics are widely used in applications such as filtration, thermal insulation, scaffolds for tissue engineering, SOFCs, or OTM’s. They must combine mechanical stability with at least one other functional property such as high permeability, low thermal conductivity, or biocompatibility. However, strength is usually increased by decreasing the total pore volume even though this may degrade the other functional properties. Beyond porosity content, morphological parameters such as pore size, shape, or tortuosity, can become crucial to maximize the performance while maintaining high strength. For example, a significant improvement can be achieved by engineering anisotropic structures to mechanically reinforce the direction of the main stress, similarly to natural materials such as trabecular bone, cork, or wood. Unfortunately, most of the techniques conventionally used to produce macroporous ceramics do not offer this level of flexibility. Ice-templating is a processing technique suitable to obtain anisotropic macroporous materials. It is based on the freezing of colloidal suspensions and the subsequent segregation of particles by the solidification front. After solidification, the frozen solvent is removed, leaving pores whose morphologies are a replica of the sublimated crystals. Finally, the green body is sintered to consolidate the microstructure. This process provides independent control of the pore architecture (pore volume, size, and morphology) through initial solids loading, cooling rate, or additives. Therefore, a good understanding of these parameters is essential to understand the relationship between processing, microstructure, and performance of this type of materials and extend their use in the aforementioned applications.The purpose of this work is first, tailor the pore architecture of specimens processed by ice-templating to then, determine the main microstructural parameters that control the compressive strength, mechanical reliability, and air permeability of unidirectional porous materials. Furthermore, the applicability of mechanistic and gas flow models will be discussed in the context of the structured pore morphologies. Finally, we will provide some guidelines to produce tubular ice-templated samples with controlled porosity.The purpose of this work is first, tailor the pore architecture of specimens processed by ice-templating to then, determine the main microstructural parameters that control the compressive strength, mechanical reliability, and air permeability of unidirectional porous materials. Furthermore, the applicability of mechanistic and gas flow models will be discussed in the context of the structured pore morphologies. Finally, we will provide some guidelines to produce tubular ice-templated samples with controlled porosity.
146

Vers des nouveaux services RTOS offrant la fiabilisation des systèmes reconfigurable dynamiquement / Toward new Real-time operating system providing reliability for dynamically reconfigurable systems

Sahraoui, Fouad 29 March 2016 (has links)
Les systèmes électroniques sont de plus en plus présents dans les sociétés modernes, on peut les retrouver sous des formes très variées, très simple comme le réveil au chevet du lit ou très complexe comme un satellite de télécommunication en orbite. De nos jours, la majorité de ces inventions reposent en partie sur des "systèmes sur puces" afin de parvenir à accomplir leurs fonction principale, à savoir nous simplifier notre quotidien.Toutefois, à cause de leur nature physique, ces systèmes peuvent subir des dysfonctionnements dûs aux environnements dans lesquels ils évoluent. Des phénomènes naturels peuvent provoquer des aléas susceptibles d'avoir des conséquences graves sur la sûreté de fonctionnement du système.Cette thèse étudie la fiabilité d'une classe spécifique de systèmes sur puce capables de se reconfigurer partiellement de manière dynamique. Nous explorons la possibilité d'utiliser leur capacité de reconfiguration dynamique partielle (RDP) pour durcir les applications sur FPGAs. Nous avons proposé l'utilisation des approches de sauvegarde et de restauration de contexte pour la tolérance contre les fautes transitoire. La RDP est utilisée pour la gestion de contexte des tâches matérielles de l'application reconfigurable, le recours à la RDP permet de réduire les modifications à apporter au système initial et la complexité du système résultant. Après identification des limitations de l'approche "Backward Error Recovery" sur les plateformes FPGAs à base de mémoire SRAM, nous proposons un nouveau algorithme de placement des ressources sur FPGA afin de minimiser les temps d'accès des opérations de sauvegarde et de restauration d'une tâche matérielle. L'évaluation de la fiabilité de notre approche est réalisée à travers une campagne d'injection de faute sur une plateforme de démonstration basée sur un FPGA Virtex-5 qui intègre le contrôleur de fiabilité et une application de chiffrement de données. / Electronic systems are a growing need in modern societies, they can be found in a variety of forms, simple as an Alarm Clock at the bedside or very complex as a telecommunications satellite into orbit. Today, the majority of these inventions are based mainly on "systems on chips", in order to achieve their primary function: simplify our daily lives.However, because of their physical nature, these systems can suffer from malfunctions due to the environments in which they operate. Natural phenomena can cause hazards which may have serious consequences on system dependability.This thesis focuses on a specific class of systems on chip which are able to reconfigure dynamically and partially and their reliability. We explore the possibility of using their partial dynamic reconfiguration capability (PDR) for hardening applications on FPGAs. We have proposed the use of checkpoint approaches and context restoration for tolerance against transient faults. PDR is used for managing the context of hardware tasks present on the application. the use of RDP reduces changes to the original system and therefore the complexity of the resulting system. After identifying the limitations of the "Backward Error Recovery" approach into SRAM-based FPGAs platforms, we propose a new resource placement algorithm on FPGA to minimize the access time needed by check-pointing and rolling back operations of hardware tasks. The evaluation of the overall reliability of our approach is achieved through fault injection campaign on demonstration platform running on a Virtex-5 that integrates our reliability controller and hosts a data encryption application.
147

Stratégies de modélisation et protection vis à vis des décharges électrostatiques (ESD) adaptées aux exigences de la norme du composant chargé (CDM) / Simulation, realisation and characterization of ESD protection structures adapted to the CDM dischange

Gao, Yuan 13 February 2009 (has links)
Dans l’industrie semiconducteur, une décharge électrostatique peut se produire tout au long de la vie d’une puce électronique, et constitue un vrai problème pour la fiabilité du circuit intégré et une cause majeure de défaillance. Un nouveau modèle, modèle du composant chargé (CDM, Charged Device Model) a été récemment développé pour simuler un composant chargé qui se décharge au travers d'une de ses broches vers la masse. La forme d’onde d’une telle décharge se présente comme une impulsion de courant de grande amplitude (15A pour un CDM de 1KV sur une capacité de charge de 10pF) d’une durée de seulement quelques nanosecondes. En effet, il est de plus en plus courant de constater des signatures de défaillance ESD au coeur des circuits intégrés, généralement des claquages d’oxyde qui sont typiquement induites par les décharges CDM. Une protection ESD ayant une dynamique de déclenchement inappropriée ou la circulation d'un fort courant de décharge (dans le substrat ou sur les pistes métalliques) peut induire localement des variations de potentiel suffisantes pour endommager les oxydes (3-5nm d’épaisseur pour la technologie CMOS 45nm). Face aux défis de la décharge CDM, dans cette thèse, nous nous sommes intéressée d’abord à la détection et la compréhension des défauts latents induits par les stress CDM dans les circuits intégrés, en utilisant une technique de haute sensibilité, « la mesure de bruit en basse fréquence ». Un convertisseur DC-DC a été stressé par le test CDM, après chaque étape de traitement (stockage, recuit, et vieillissement), et l’évolution des défauts latents générés a été étudiée. Ensuite, nous avons proposé une méthodologie de modélisation du circuit intégré complet afin de simuler la stratégie de protection vis-à-vis des stress CDM en limitant les problèmes de convergence de simulation. Son originalité réside dans la modélisation de la résistance du substrat en très forte injection adaptée à la décharge CDM à l’aide de la mesure VF-TLP (Very Fast Transmission Line Pulsing) et de la simulation physique 2D et 3D. La méthodologie a été validée sur une technologie CMOS avancée 45nm et une technologie BiCMOS 0,25mm). A la fin, la méthodologie de simulation CDM a été validée sur un produit commercial. / In the semiconductor industry, electrostatic discharge (ESD) can occur throughout over the whole life of a chip. This is a real problem for the reliability of the integrated circuit (IC) and a major failure cause. A new ESD model, Charged Device Model (CDM) was recently developed to simulate a charged device which discharges through one of its pin to ground. The waveform of such a discharge is a current pulse of high amplitude (15A for a 1KV CDM stress on a precharged capacitor of 10pF) over a few nanoseconds duration. Indeed, it is increasingly common to encounter ESD failure signatures into the IC core, usually gate oxide breakdowns that are typically induced by CDM stress. ESD protections with inappropriate triggering speed or strong discharge currents (into the substrate or the metal tracks) can locally lead to potential drop sufficient to damage the oxide (3-5nm thickness in 45nm CMOS technology).Given the challenges of the CDM discharges, this thesis was firstly focused on the detection and understanding of latent defects caused by CDM stress in integrated circuits, using a high- ensitivity technique, namely low frequency noise measurement (LFN). A DCDC converter has been stressed by the CDM test. After each step of processing (storage, burn-in, and aging), the evolution of latent defects generated was investigated. Secondly, a methodology for modeling the complete integrated circuit has been proposed to simulate the CDM protection strategy by limiting the simulation convergence problems. Its main originality consists in the modeling of the substrate resistance under very high injection adapted to the CDM discharge using both VF-TLP (Very Fast Transmission Line Pulsing) measurement and 2D/3D physical simulation. The model was successfully validated on 45nm CMOS and 0.25 µm BiCMOS technologies. Finally, the CDM simulation methodology was validated on a commercial product.
148

Fiabilité du temps de transport : Mesures, valorisation monétaire et intégration dans le calcul économique public / Travel time reliability : Measurement, monetary valuation and cost-benefit implication

Stéphan, Maïté 09 November 2015 (has links)
Cette thèse aborde la question de la fiabilité du temps de transport. L’étude de la fiabilité du temps de transport trouve ses sources dans le fait que, dans bien des situations, le temps de transport n’est pas certain, mais aléatoire. De nombreux évènements peuvent en effet modifier le temps de transport prévu par les opérateurs ou espéré par les usagers. Par ailleurs, lors de l’évaluation socioéconomique de projets d’investissement en infrastructure de transport, il peut exister un arbitrage entre gain de temps et gain de fiabilité. Or, comme la fiabilité est encore à l’heure actuelle, difficilement intégrable dans ce type d’évaluation, ces projets d’investissement voient leur rentabilité collective sous-estimée conduisant à leurs reports. Il émerge ainsi trois problématiques majeures relatives à l’étude de la fiabilité du temps de transport : sa mesure, sa valorisation monétaire (i.e. la disposition à payer des individus pour améliorer la fiabilité du temps de transport) et enfin, sa prise en compte dans les analyses coûts-avantages. Un premier chapitre permet d’adapter les mesures usuelles de la fiabilité du temps de transport appliquées dans le cadre du transport routier, aux modes de transport collectif (fer et aérien plus particulièrement). Nous proposons également une nouvelle mesure de la fiabilité, le Delay-at-Risk (DaR) inspiré de la littérature financière. Le DaR est une transposition de la mesure de la Value-at-Risk (V aR) à l’économie des transports. Cette mesure est plus utile du point de vue des usagers pour la planification des trajets avec correspondance que les autres mesures. Le deuxième chapitre a pour principal objectif de déterminer la disposition à payer des individus pour améliorer la fiabilité du temps de transport. Nous proposons un cadre théorique inspiré de la théorie de la décision en univers risqué à partir duquel nous définissons la préférence des individus à l’égard de la fiabilité (i.e. reliabilityproneness) ainsi que la prudence. Nous développons des nouvelles mesures de la fiabilité du temps de transport, exprimées comme des primes de risque : la reliability-premium et la V OR. La reliability-premium détermine le temps de transport maximum supplémentaire qu’un individu est prêt à accepter pour supprimer l’intégralité du risque sur le temps de transport. La V OR, quant à elle, se définit comme la disposition maximale à payer d’un individu pour supprimer l’intégralité du risque sur le temps de transport. Par ailleurs, nous établissons également les conséquences sur la valeur du temps (V TTS) et de la fiabilité (V OR), de la prise en considération de l’attitude à l’égard du risque sur le temps de transport des usagers (aversion et prudence). Le dernier chapitre de cette thèse a pour objet d’intégrer la fiabilité dans les évaluations socioéconomiques de projet d’investissement et plus particulièrement dans la détermination du surplus des usagers. Nous mettonsen exergue un effet de diffusion des gains de fiabilité par rapport aux gains de temps. Ainsi, nous proposons des recommandations quant à l’arbitrage entre les projets générateurs de gain de temps et de gain de fiabilité en fonction des valeurs monétaires du temps (V TTS) et de la fiabilité (V OR). / This thesis deals with the issue of travel time reliability. The study of travel time reliability emerges from the fact that in many situations, travel time is random. Many events can change the travel time forecasted by operators or expected by users. Moreover, a tradeoff may exist between time and reliability benefits when evaluating socio economic appraisal of transport infrastructure. However, since reliability is still difficult to integrate in this type of evaluation, investment projects’ collective profitability is underestimated and often postponed. Thus, three main issues of travel time reliability analysis emerge: measurement, monetary valuation and implication for cost benefit analysis. This thesis is organized in three chapters. The first chapter adapts the measure of travel time reliability typically used in the road transport context to the collective modes (rail and air, in particular). We also develop a new reliability measure: the Delay-at-Risk (DaR). DaR is an implementation of the Value-at-Risk (V aR) measure into the transport economic framework. The DaR seem to be relevant and understandable information for the users, especially to plan their travel and avoid missing their connections. The main objective of the second chapter is to define the users’ willingness to pay to improve travel time reliability. We present a theoretical framework based on decision theory under risk. We introduce the concept of reliability-proneness (i.e. travel time risk aversion) and prudence. We develop new measures of travel time reliability expressed as risk premium: the reliability-premium and V OR. The reliability-premium is the maximum amount of additional travel time that an individual is willing to accept to escape all the risk of travel time. The V OR is defined as the maximum monetary amount that an individual is willing to pay to escape all the risk of travel time. Furthermore, we also establish the link with attitudes towards risks of travel time (aversion and prudence) and the impact of the value of travel time (V TTS) and the value of reliability (V OR). The final chapter of this thesis integrates reliability in investments project’s socioeconomic appraisal. More particularly, it allows to determine users’ surplus valuation. We highlight a diffusion effect of reliability benefits with regard to travel time benefits. Thus, we propose recommendations regarding the tradeoff between projects that generate time benefits compared with reliability benefits, according to the monetary values of travel time(V TTS) and reliability (V OR).
149

Instanciation avec fiabilité des réseaux virtuels dans le réseau coeur du Cloud / Reliable embedding of virtual networks in Cloud's backbone network

Soualah, Oussama 15 June 2015 (has links)
Cloud computing a connu un succès impressionnant au cours des dernières années. Cette expansion en permanence se manifeste clairement non seulement par l'omniprésence du Cloud dans les environnements académiques et industriels mais aussi par la hausse impressionnante du chiffre d'affaire des services Cloud. Ce succès important réalisé en peu de temps est achevé grâce à la caractéristique d'élasticité du Cloud. Afin de bien tirer profit de cette nouvelle architecture software et hardware, les fournisseurs de service Cloud requièrent des stratégies adéquates pour une gestion efficace des équipements physiques continuellement allouées à plusieurs clients simultanément. En effet, le fournisseur Cloud doit respecter le Service Level Agreement (SLA) et assurer la continuité de service afin de minimiser le coût des pénalités. Dans cette thèse, nous abordons la problématique de l'instanciation (i.e., mapping) des réseaux virtuels au sein du réseau coeur du Cloud tout en considérant la fiabilité des équipements physiques (i.e., routeurs et liens).Notre objectif principal est de maximiser le chiffre d'affaires du fournisseur Cloud par le biais de i) la maximisation du taux des réseaux virtuels acceptés dans le réseau coeur du Cloud etii) la minimisation des pénalités induites par les interruptions de service en raison de pannes des équipements du réseau. Il a été démontré que ce type de problème est NP-dur donc aucune solution optimale ne peut être calculée à large échelle. Premièrement, on a proposé un algorithme nommé PR-VNE qui favorise l'utilisation des équipements les plus fiables, lors de l'instanciation des réseaux virtuels, afin de minimiser l'impact néfaste des pannes. Cette proposition exploite les avantages de la métaheuristique de colonie d'abeilles pour assurer une qualité optimisée de mapping de la solution en termes d'optimalité. Il est à souligner que PR-VNE ne réserve aucune ressource de secours dans le cas où panne se présente. Deuxièmement, on a défini un algorithme qui adopte non seulement la stratégie préventive mais aussi un mécanisme curatif pour remédier aux pannes imprévisibles. Cet algorithme nommé CG-VNE est conçu par une modélisation basée sur la théorie des jeux. CG-VNE reconfigure (re-instancie) les ressources virtuelles impactées par les pannes dans d'autres équipements réseau sans pour autant réserver des ressources de secours. Finalement, on a considéré la vision macroscopique en définissant un algorithme qui traite un lot de requêtes tout en considérant la fiabilité. Cet algorithme nommé BR-VNE se base principalement sur la stratégie Monte-Carlo Tree Search pour trouver la meilleure séquence de mapping. L'évaluation des performances de nos propositions prouve leurs efficacités par rapport aux méthodes concurrentes de la littérature en terme de : i) taux de réseaux virtuels acceptés, ii) taux de requêtes impactées par les pannes et iii) revenu du fournisseur de service Cloud / Cloud computing has known an impressive success over the last few years and is continuously emerging personal and profesional life thanks to its elasticity, pricing model, etc. This innovative technology has attracted both industrial and research communities and becomes omnipresent.In order to take benefit from the Cloud expansion, providers require effecient management strategies to properly supply their physical capabilities such as network resources. Besides, Cloud providers have to respect the Service Level Agreements (SLA) and avoid any outage impact in order to guarantee the Cloud-based service continuity. In this thesis we tackle the problem of reliable virtual network embedding within the Cloud backbone by considering the impact of physical equipments' outages. Our main focus is to improve the provider's turnover by i) maximizing the acceptance rate of the incoming virtual networks issued from clients' requestand ii) minimizing the penalties induced by service disruption due to the physical failures. This optimization problem is NP-hard with multi-objective and non-linear formalization. To cope with this complexity and since reaching the optimal solution is computationally intractable, we propose different strategies that aim to respect the aformentionned objectives. First, we propose a preventive approach named PR-VNE that urges the use of reliable network resources in order to avoid the physical failures impact.PR-VNE strongly relies on the Artificial Bee Colony metaheuristic to reach an optimized solution. It should be highlighted that PR-VNE does not adopt a recovering mechanism to deal with the network outages. Second, we devise a new reactive approach named CG-VNE that does not consider any backup resources but re-embed the impacted virtual resources once an outage occurs in the underlying network. As well as this reactive mechanism, CG-VNE adopts the same preventive strategy like PR-VNE by avoiding the unreliable resources. It should be noted that CG-VNE is devised basing on a Game Theory framework by defining a collaborative mapping game. Finally, we deal with the survivable batch mapping problem that considers the embedding of a virtual networks set instead of one client request. We introduce a new reliable batch embedding strategy named BR-VNE that relies on Monte-Carlo Tree Search algorithm.BR-VNE delegates the embedding of one virtual network request to any online algorithm and focuses to find the best mapping sequence order. The performance evaluation of our algorithms leads to efficient results
150

Contribution à l'étude du comportement de structures libres, rigides, élancées, glissantes et basculantes sous séisme / Behavior of free-standing, slender, rigid, rocking and sliding structures under seismic motion

Mathey, Charlie 15 March 2016 (has links)
Dans le cadre des études relatives à la sûreté sismique des installations industrielles, on est amené à se préoccuper de la stabilité de structures libres (des équipements, des containers, des fûts. . . ) posées à même le sol. De nombreuses méthodes ont permis d’établir des critères de sûreté réputés conservatifs, sans qu’il soit besoin de représenter finement le comportement dynamique de l’objet. Dans le cadre de cette thèse, on a cherché à analyser la capacité de prédiction par des modèles numériques du mouvement de corps rigides libres soumis à des séismes impliquant impacts et glissements. Pour cela, on s’est appuyé sur deux campagnes expérimentales qui ont été menées au laboratoire EMSI du CEA/Saclay sur des blocs parallélépipédiques en acier, élancés et disposant de 4 appuis non ponctuels usinés avec des tolérances standards. Dans un premier temps, des essais de lâcher (bloc immobile en appuis sur deux pieds, puis lâché sans source d’excitation extérieure), souvent analysés dans la littérature comme un mouvement plan, ont fait apparaître un mouvement 3D reproductible dans les premiers instants consécutifs au lâcher. L’analyse fine de ce mouvement a permis, d’une part, de conclure qu’il était dû à des défauts de géométrie des pieds et, d’autre part, d’élaborer un modèle numérique représentatif incluant ces défauts. Dans un second temps, il a été question d’étudier l’aptitude du modèle numérique à représenter le comportement dynamique au cours du temps d’un bloc rigide élancé non idéal soumis à des excitations sismiques. Les blocs ont été soumis à 100 réalisations d’un processus stationnaire (essais de variabilité) puis 100 fois à la même accélération (essais de répétabilité). D’un point de vue statistique, et malgré les incertitudes expérimentales, ce travail a permis d’exhiber une bonne adéquation entre les résultats des modèles numériques et les résultats expérimentaux. En outre, il a permis de quantifier la durée au-delà de laquelle une prédiction du comportement ne peut plus être considérée comme pertinente. Pour finir, on s’est attaché à appliquer des outils classiques de fiabilité au problème de bloc rigide soumis à des séismes, ainsi que la méthode récente des Subset Simulations. / In the field of nuclear safety, the stability of free standing structures like containers, barrels or electronical devices is considered to be an important matter. Until now, the literature written on the subject presents some stability criteria known to be conservative without needing to represent in detail the object behavior. This thesis attempts to analyse the capacity numerical models have to predict the behavior of blocks submitted to seismic acceleration, with impacts and friction. To this effect, two experimental campaigns were carried out in the EMSI laboratory (CEA Saclay, France) on slender massive prismatic steel blocks, with 4 machined (i.e. non-ideal) feet. First of all, release tests (the block is in an unsteady position on 2 feet, kept still with a wire, then the wire is cut and the block is released without any ground motion) are usually analysed as a plane motion. Our experiments have shown a reproducible out-of-plane (3D) motion during the first seconds of the release. A detailed analysis highlighted the fact that this 3D motion is induced by geometrical defects on the block feet, and allowed us to build an accurate numerical model of this behavior. The ability of this numerical model to match the dynamic behavior of a non-ideal rigid slender block has been questioned. In a second campaign, 4 blocks were subjected on the one hand to 100 realisations of a stationnary process, and on the other hand 100 times to the same excitation. This accounts for an analysis of the variability of two 100-samples of results obtained under two different input variability levels. From a statistical point of view, despite experimental uncertainties this article demonstrates a good agreement between numerical and experimental results. Finally, some classical tools of reliabily were applied to the rocking block problem, as well as a newer method called Subset Simulation.

Page generated in 0.0421 seconds