• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 405
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 631
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Analysis of single event radiation effects and fault mechanisms in SRAM, FRAM and NAND Flash : application to the MTCube nanosatellite project / Analyse des effets singuliers et des mécanismes de fautes dans des mémoires SRAM, FRAM et NAND Flash : application au projet de nanosatellite MTCube

Gupta, Viyas 06 July 2017 (has links)
L’environnement radiatif spatial est un environnement sévère qui agit sur tout composants électroniques embarqués sur des engins spatiaux, y compris sous le bouclier naturel que nous procure le champ magnétique terrestre en orbite basse. Bien qu’il soit possible, en particulier à ces orbites, de se protéger efficacement contre les particules créant de la dose totale ionisante, cela pose plus de difficultés pour les particules générant des effets singuliers. Cela est d’autant plus un problème que l’utilisation des composants commerciaux (dits « COTS »), non conçus pour de telles applications, sont de plus en plus utilisés. Dans le cadre de cette thèse, les effets singuliers sur trois types de mémoires sont étudiés: SRAM, FRAM et NAND Flash. En se basant sur l’analyse des résultats de tests, les mécanismes d’erreurs induits par des particules générant des effets singuliers sont analysés. Avec pour objectif d’étudier et comparer la sensibilité de ces mémoires directement en orbite, l’expérience RES (Radiation Effect Study) a été développée et est présentée dans ce manuscrit. Cette expérience scientifique constituera la charge utile du nanosatellite de type CubeSat nommé MTCube (Memory Test CubeSat) developpé à l’Université de Montpellier en collaboration entre le Centre Spatial Universitaire Montpellier-Nîmes, et les laboratoires LIRMM et IES. Ce nanosatellite est financé par l’ESA (Agence Spatial Européenne). / Space radiation is a harsh environment affecting all electronic devices used on spacecraft, despite the presence of Earth’s protective magnetic field in Low Earth Orbit (LEO). Although particles inducing total ionizing dose (TID) can be effectively shielded against in LEO, particles responsible for Single Event Effects (SEEs) remain an issue for the reliability of electronics. This is particularly of concern considering the increasing use of Commercial-Off-The-Shelf (COTS) components, not designed for space applications. In the frame of this thesis, the SEE response of three commercial memory types are explored: SRAM, FRAM and NAND Flash. Based on SEE test results, the possible fault mechanisms induced by SEE particles on those devices are analysed. In order to study and compare the devices’ response with actual in-orbit measurements, the RES (Radiation Effect Study) science experiment was developed and is presented. The RES experiment will be the payload of the MTCube (Memory Test CubeSat) nanosatellite, which is being developed at the University of Montpellier as a joint project between the University Space Center (CSU Montpellier-Nîmes), as well as the LIRMM and IES laboratories. MTCube is financed by the European Space Agency (ESA).
132

Contribution à l'approche probabiliste de la durabilité des structures en béton soumise à la carbonatation / Probabilistic approach to the durability of concrete structures exposed to carbonation

Ngo, Viet Duc 11 September 2015 (has links)
La corrosion de l'acier par carbonatation du béton est un phénomène de dégradation majeur des structures en béton armé, qui débute par la dépassivation de l'acier due à l'abaissement du pH de la solution interstitielle. Un modèle est été développé pour estimer la profondeur de carbonatation du béton. Le modèle proposé est un approfondissement de modélisations antérieures, notamment afin de prendre en considération dans les simulations l'effet de la température, tant par l’équation de transfert que par des termes de thermo-activation venant modifier les grandeurs de diffusion de dioxyde de carbone et des ions calcium en phase liquide, la solubilité des hydrates, la viscosité de l’eau, ainsi que l’isotherme hydrique. L’objectif étant d’inscrire la modélisation dans un cadre probabiliste, et donc coûteux en terme de calculs, il a fallu réduire la dimension stochastique du problème. Une méthodologie de choix des paramètres intervenant dans le modèle, basée sur une étude de sensibilité, a été proposée. Un modèle de substitution a été construit, à partir du modèle initial, pour déterminer les grandeurs intervenant dans les expressions des états-limites de dépassivation et d’initiation de la corrosion, s’appuyant sur des développements en chaos polynomiaux.Avec une définition de la probabilité d’amorçage de la corrosion et des modèles de substitution pour la profondeur carbonatée et pour l’amplitude de la variation annuelle du taux de saturation au voisinage des armatures, l’analyse fiabiliste proprement dite a été menée, notamment par rapport à l’incidence des conditions climatiques sur la fiabilité des ouvrages en béton vis-à-vis de la durabilité. / Corrosion of the steel by concrete carbonation phenomenon is a major degradation of reinforced concrete structures, which starts with the depassivation of the steel due to the lowering of the pH of the pore solution.A model was developed to estimate the depth of carbonation of concrete. The proposed model is a deepening of previous models, particularly to be considered in the simulations the effect of temperature, both by the transfer equation in terms of thermo-activation that modify dioxide diffusion of sizes carbon and calcium ions in the liquid phase, the solubility of hydrates, the viscosity of water and the water isotherm.The aim is to include in a probabilistic modeling framework, and therefore costly in terms of calculations, it was necessary to reduce the stochastic dimension of the problem. A methodology for the selection of parameters involved in the model, based on a sensitivity analysis, was proposed. An alternative model was built, from the original model, to determine the quantities involved in the expressions of borderline depassivation and corrosion initiation, based on developments in polynomial chaos.With a definition of the boot likelihood of corrosion and substitution patterns for carbonated depth and the amplitude of the annual variation in the degree of saturation in the vicinity of frames, reliability engineer the actual analysis was conducted, including compared to the impact of weather on the reliability of the fabricated vis-à-vis sustainability concrete.
133

Conception d'un système de verrouillage sur de fonctionnement pour les collisionneurs linéaires / Design of a dependable Interlock System for linear colliders

Nouvel, Patrice 18 December 2013 (has links)
Pour les accélérateurs de particules à hautes énergies, le système de verrouillage est une partie clé de la protection de la machine. Le verrouillage de la machine est l’inhibition du faisceau dès lors qu’un équipement critique tombe en panne et/ou qu’un faisceau est de faible qualité. Pour un système de verrouillage, sa sûreté de fonctionnement est la caractéristique la plus importante. Cette thèse présente le développement d’un système de verrouillage pour les collisionneurs linéaires avec une application au projet CLIC (Compact Linear Collider). Son élaboration s’appuie sur la norme d’ingénierie IEEE 1220 et se décline en quatre parties. Tout d’abord, les spécifications sont établies. Une attention particulière est portée sur la sûreté de fonctionnement, plus précisément, la fiabilité et la disponibilité du système. La deuxième étape est la proposition d’un design. Celui-ci est basé sur une analyse fonctionnelle, les interfaces du système et l’architecture du CLIC. Troisièmement, une étude de faisabilité est effectuée en appliquant les concepts dans un environnement opérationnel. Finalement, la dernière étape est la vérification matérielle. Le but est de prouver que le design proposé est capable de remplir le cahier des charges établi. / For high energy accelerators, the interlock system is a key part of the machine protection. The interlock principle is to inhibit the beam either on failure of critical equipment and/or on low beam quality evaluation. The dependability of such a system is the most critical parameter. This thesis presents the design of an dependable interlock system for linear collider with an application to the CLIC (Compact Linear Collider) project. This design process is based on the IEEE 1220 standard and is is divided in four steps. First,the specifications are established, with a focus on the dependability, more precisely the reliability and the availability of the system. The second step is the design proposal based on a functional analysis, the CLIC and interfaced systems architecture. Third, the feasibility study is performed, applying the concepts in an accelerator facility. Finally, the last step is the hardware verification. Its aim is to prove that the proposed design is able to reach the requirements.
134

Développement de méthodes fiabilistes dépendant du temps pour l'analyse de durabilité des structures : application au problème de conception fiabiliste dépendant du temps / Development of metamodeling methods for time-dependent structural reliability analysis

Hawchar, Lara 13 December 2017 (has links)
La caractérisation des incertitudes est un enjeu essentiel qui permet une conception fiable des structures. Par ailleurs, la surveillance du phénomène de vieillissement est primordiale pour l'inspection et la prévention des risques. Ces deux enjeux peuvent être étudiés simultanément dans une analyse de fiabilité dépendante du temps. Toutefois, une telle analyse est souvent complexe et très couteuse en temps de calcul parce qu'elle demande plusieurs évaluations du modèle physique décrivant la performance de la structure. Dans ce contexte, on propose l'utilisation de la métamodélisation pour l'analyse de fiabilité dépendante du temps, concept largement exploré dans le cas de problèmes indépendants du temps. Ceci consiste à remplacer le modèle physique par un métamodèle analytique facile à évaluer de sorte que la méthode de simulation de Monte-Carlo peut être utilisée à coût de calcul réduit. D'autres problèmes sont liés aussi à ce type d'analyse, notamment la grande dimensionnalité du problème, la non Gaussianité et non stationnarité des processus stochastiques mis en jeu et la non linéarité de la fonction d'état limite. La thèse vise alors à proposer des méthodes précises mais aussi efficaces pour l'analyse de fiabilité dépendant du temps qui permettent de surmonter ces difficultés. Elle propose également une extension de ces méthodes au problème de conception fiabiliste dépendant du temps. / Uncertainty quantification is essential for designing reliable structures. Moreover, monitoring the aging process is of vital importance for the inspection and prevention of risks. These two aspects may be considered simultaneously throughout a time-variant reliability analysis. However, such analysis is in general complex and very time consuming because it requires numerous evaluations of the mechanical model describing the structural behavior. To overcome this issue, we propose to use the metamodeling approach that has been widely explored in the context of the probabilistic analysis, for time-variant reliability problems. This consists in replacing the mechanical model with a simple analytical function that is easy to evaluate and on which Monte-Carlo simulation can be performed at a low computational cost. Other challenges also encounter this analysis and are basically related to the high dimensionality of the problem, the non Gaussianity and non stationarity of the input stochastic processes and the non linearity of the limit state function. The thesis aims then to develop accurate and efficient approaches for time-variant reliability analysis that overcome the aforementioned difficulties. It also proposes to extend these methods to the field of time-variant reliability-based design optimization.
135

Caractérisation physique de la microstructure des interconnexions avancées Cu/Low-k pour l'étude des défaillances par électromigration / Physical characterization of the microstructure of advanced Cu/Low-k interconnections for electromigration failure study.

Galand, Romain 24 November 2011 (has links)
L'electromigration est identifiée comme la principale cause de dégradation des interconnexions en cuivre limitant ainsi la fiabilité des produits issus de la microélectronique. Dans ces travaux nous proposons d'approfondir notre connaissance de ce phénomène en étudiant le lien qu'il présente avec les paramètres morphologiques du cuivre. Dans ce but, la technique de diffraction des électrons rétrodiffusés est utilisée. Nous avons d'abord développé les méthodes de préparation et d'acquisition nécessaires afin de pouvoir caractériser les structures issues des technologies 45 nm et au-delà que nous avons choisies pour cette étude. Un lien entre les joints de grains de forte désorientation et la localisation des cavités a alors pu être mis en évidence. Nous avons ensuite tenté de modifier la microstructure du cuivre pour impacter la fiabilité sans succès. Finalement, c'est l'intégration de nouveaux matériaux (Al, Co) renforçant l'interface supérieure, chemin de diffusion du phénomène, qui semble être la voie à adopter pour améliorer la résistance des lignes à l'électromigration. / Electromigration is one of the major cause of copper interconnect degradation which limits reliability of microelectronic products. In these works, link between copper morphological parameters and electromigration is studied to get more knowledge of this phenomenon. For that, copper structures from 45 nm technology node and beyond are characterized by backscattered electron diffraction technique. In a first time, developments of sample preparation and acquisition methodology are performed to be able to characterize small dimensions structures from technology node chosen. A link between high angle grain boundary and void location has been highlighted. Then we tried to improve reliability by copper microstructure change without success. It seems that right way to improve interconnect resistance toward electromigration is the introduction of new materials in copper (Al, Co) to reinforce upper interface which is critical diffusion path of electromigration phenomenon.
136

Etude de la fiabilité de MEMS à fonctionnement électrostatique / Reliability studies of electrostatically actuated MEMS

Koszewski, Adam 05 December 2011 (has links)
Cette thèse résume les travaux concernant les essais de fiabilité des commutateurs RF MEMS capacitifs et ohmiques développé par le CEA-Leti.Dans le premier chapitre les mesures de raideur par la technique de nano-indentation sur des commutateurs MEMS réels sont complétées par des observations AFM, MEB et FIB pour expliquer le comportement électrique des différents lots de commutateurs de type ohmique.Le deuxième chapitre présente les résultats de la caractérisation des propriétés structurales et physiques des diélectriques, qui sont généralement utilisés dans nos commutateurs RF MEMS ohmiques et capacitifs. Les analyses élémentaires confirment que tous les nitrures SiNx et oxydes SiO2 fabriqués par la technique PECVD ont une qualité inférieure par rapport à leurs homologues synthétisés à haute température.Les mécanismes de conduction sont identifiés dans SiNx et SiO2 PECVD en mesurant des courbes I-V sur les condensateurs MIM. Pour les deux nitrures SiNx, qui sont déposés en haute (HF) et fréquence mixte (MF), le mécanisme de conduction de type Poole-Frenkel. Pour le SiO2 le mécanisme de conduction est plus susceptible d'être contrôlé par émission Schottky. Les mesures I-V révèlent que tous ces matériaux piègent des charges parasites, il y a en effet une forte hystérésis entre les parties aller et retour de la courbe I-V.Pour étudier la cinétique de piégeage de charge des condensateurs MIM sont utilisés. Pour identifier les propriétés des pièges la technique d'injection à courant constant est utilisée. Le diélectrique SiNx PECVD montre une dépendance logarithmique de la cinétique de piégeage, tandis que le SiO2 montre une dépendance exponentielle. La concentration totale de pièges ne montre aucune dépendance pour les SiNx HF et SiO2 MF, ou une dépendance faible en fonction du champ pour le SiNx MF. La section efficace de capture dépend du champ pour les deux types de nitrures, ce qui est cohérent avec le modèle de piégeage à effet répulsif. Pour le SiO2, où un modèle de piégeage du premier ordre a été utilisé, la section efficace de capture est indépendante du champ. Dans le chapitre 4, les dérives de tension expérimentales sont mesurées lors des tests de stress à tension constante, pour différents niveaux de contrainte de tension. Dans la partie suivante, nous proposons une approche originale de modélisation de la dérive de la tension de "pull-in" basée sur le mécanisme de conduction et les propriétés de piégeage des diélectriques. Nous démontrons que grâce a notre modèle, il est possible d'expliquer les dérives de tension mesurée en termes de propriétés diélectriques bien identifiées. Cette procédure donne des résultats simulés en bon accord avec les mesures pour tous les matériaux, et permet de prédire les résultats de n'importe quelle séquence de vieillissement électrique. Nous utilisons ensuite notre modèle pour étudier l'effet des propriétés diélectriques et de la conception du commutateur sur le comportement à long terme de nos commutateurs MEMS. / This thesis summarizes the work concerning reliability testing of electrostatic capacitive- and ohmic-type RF MEMS switches developed by the CEA-Leti. In the first chapter the measurement of stiffness by the nanoindentation technique on real MEMS switches are completed by AFM, SEM and FIB observations in order to explain the electrical behavior of different wafers of the ohmic-type switches. The second chapter presents the results of the characterization of the structural and physical properties of the dielectrics, which are typically used in our ohmic- and capacitive-type RF MEMS switches. Elemental analyses confirm that all SiNx and SiO2 samples fabricated by the PECVD technique have inferior quality compared to their high-temperature counterparts.The conduction mechanism are identified in PECVD SiNx and SiO2 by measuring I-V curves on MIM capacitors. For both SiNx materials, that is deposited in high- (HF) and mixed-frequency (MF) mode, the conduction process is controlled by Poole-Frenkel mechanism. For the MF SiO2 the conduction mechanism is most likely to be controlled by Schottky emission. The I-V measurements reveal, that all these materials are prone to trapping parasitic charge, which is observed as hysteresis between the ramp-up and ramp-down parts of the I-V curve.For studying the kinetics of charge trapping the MIM capacitors are used. To identify the trapping properties the constant current injection technique is used. The PECVD SiNx dielectric turns out to show logarithmic dependence of the trapping kinetics, while the SiO2 shows an exponential dependence. The total concentration of traps shows no field-dependence for the HF SiNx and MF SiO2 or weak field dependence for the MF SiNx sample. The capture cross section is field dependent for both samples with SiNx, which is consistent with the repulsive trapping model. For the SiO2, where the first order trapping model was used, the capture cross-section is not field dependent.In the chapter 4, experimental voltage drifts are measured during constant voltage stress tests for different voltage stress levels. In the following part we propose an original approach to modeling of the voltage drifts based on the identified conduction mechanism and trapping properties of the dielectrics. We demonstrate that thanks to our model it is possible to explain the measured voltage drifts in terms of the identified dielectric properties. The simulated results are in good agreement with experimental ones for all investigated materials and it allows to predict the voltage drift for any aging conditions. In the next step, we use our model to study the effect of the dielectric properties and the switch design on the long term behavior of RF MEMS switches.
137

Conception sur mesure d'un FPGA durci aux radiations à base de mémoires magnétiques / Conception of a full custum radiation hardened FPGA based on the use of magnetic memories

Gonçalves, Olivier 19 June 2013 (has links)
Le but de la thèse a été de montrer que les cellules mémoires MRAM présentent de nombreux avantages pour une utilisation en tant que mémoire de configuration pour les architectures reconfigurables et en particulier les FPGAs (Field Programmable Gate Arrays). Ce type de composant est programmable et permet de concevoir un circuit numérique simplement en programmant des cellules mémoires qui définissent sa fonctionnalité. Un FPGA est principalement constitué de cellules mémoires. C'est pourquoi elles déterminent en grande partie ses caractéristiques comme sa surface ou sa consommation et influencent ses performances comme sa rapidité. Les mémoires MRAM sont composées de Jonctions Tunnel Magnétiques (JTMs) qui stockent l'information sous la forme d'une aimantation. Une JTM est composée de trois couches : deux couches de matériaux ferromagnétiques séparées par une couche isolante. Une des deux couches ferromagnétiques a une aimantation fixée dans un certaine direction (couche de référence) tandis que l'autre peut voir son aimantation changer dans deux directions (couche de stockage). Ainsi, la propagation des électrons est changée suivant que les deux aimantations sont parallèles ou antiparallèles c'est-à-dire que la résistance électrique de la jonction change suivant l'orientation relative des aimantations. Elle est faible lorsque les aimantations sont parallèles et forte lorsqu'elles sont antiparallèles. L'écriture d'une JTM consiste donc à changer l'orientation de l'aimantation de la couche de stockage tandis que la lecture consiste à déterminer si l'on a une forte ou une faible résistance. Les atouts de la JTM font d'elle une bonne candidate pour être une mémoire dite universelle, bien que des efforts de recherche restent à accomplir. Cependant, elle a de nombreux avantages comme la non-volatilité, la rapidité et la faible consommation à l'écriture comparée à la mémoire Flash ainsi que la résistance aux radiations. Grâce à ces avantages, on peut déjà l'utiliser dans certaines applications et en particulier dans le domaine du spatial. En effet, l'utilisation dans ce domaine permet de tirer parti de tous les avantages de la JTM en raison du fait qu'elle est intrinsèquement immune aux radiations et non-volatile. Elle permet donc de réaliser un FPGA résistant aux radiations et avec une basse consommation et de nouvelles fonctionnalités. Le travail de la thèse s'est donc déroulé sur trois ans. La première année a d'abord été dédiée à l'état de l'art afin d'apprendre le fonctionnement des JTMs, l'architecture des FPGAs, les techniques de durcissement aux radiations et de basse consommation ainsi que le fonctionnement des outils utilisés en microélectronique. Au bout de la première année, un nouveau concept d'architecture de FPGA a été proposé. Les deuxième et troisième années ont été dédiées à la réalisation de cette innovation avec la recherche de la meilleure structure de circuit et la réalisation d'un circuit de base d'un FPGA ainsi que la conception puis la fabrication d'un démonstrateur. Le démonstrateur a été testé avec succès et a permis de prouver le concept. La nouvelle architecture de circuit de FPGA a permis de montrer que l'utilisation des mémoires MRAM comme mémoire de configuration de FPGA était avantageuse et en particulier pour les technologies futures. / The aim of the thesis was to show that MRAM memory has many advantages for use as a configuration memory for reconfigurable architectures and especially Field Programmable Gate-Arrays (FPGAs). This type of component is programmable and allows designing a digital circuit simply by programming memory cells that define its functionality. An FPGA is thus mainly composed of memory cells. That is why they largely determine its characteristics as its surface or power consumption and affect its performance as its speed. MRAM memories are composed of Magnetic Tunnel Junctions (JTMs) which store information in the form of a magnetization. A JTM is composed of three layers: two layers of ferromagnetic material separated by an insulating layer. One of the two ferromagnetic layers has a magnetization pinned in a fixed direction (reference layer) while the other one can have its magnetization switched between two directions (storage layer). Thus, the propagation of the electrons is changed depending on whether the two magnetizations are parallel or antiparallel that is to say that the electrical resistance of the junction changes according to the orientation of the magnetizations. It is low when the magnetizations are parallel and high when antiparallel. Writing a JTM consists in changing the orientation of the magnetization of the storage layer while reading consists in determining if the resistance is high or low. The advantages of the JTM make it a good candidate to be used as a universal memory although research efforts are still needed. However, it has many advantages such as non-volatility, fast and low power consumption compared to writing to Flash memory as well as resistance to radiation. With these advantages, we may already use it in some applications and in particular in the field of space. Indeed, its use in this area allows taking advantage of all of the benefits of JTM due to the fact that it is intrinsically immune to radiation and non-volatile. It therefore enables to make a radiation hardened and low power FPGA with new functionalities. The work of this thesis is held over three years. The first year was dedicated to the state of the art in order to learn the mechanisms of JTMs, the architecture of FPGAs, radiation hardening and low power consumption techniques as well as the operation of the tools used in microelectronics. After the first year, a new FPGA architecture concept was proposed. The second and third years were devoted to the realization of this innovation with the search for the best circuit structure and the realization of an elementary component of a FPGA and the design and manufacture of a demonstrator. The demonstrator has been successfully tested and proved the new concept. The new circuit architecture of FPGA has shown that the use of MRAM cells as configuration memories for FPGAs was particularly advantageous for future technologies.
138

Méthodologie d'évaluation de la sensibilité des microprocesseurs vis à vis des rayonnements cosmiques. / Evaluation methodology of microprocessor sensitivity to cosmic radiations

Houssany, Sabrine 13 September 2013 (has links)
Les circuits électroniques embarqués dans les systèmes évoluant au niveau spatial ou dans l’atmosphère sont soumis à des particules naturellement présentes qui peuvent provoquer une perturbation de leur fonctionnement. Le type d’effet lié à ces particules le plus souvent rencontré dans les composants logiques est le SEU. Cet effet correspond à l’inversion de l’état logique d’un élément de mémorisation. De nombreuses études ont été menées pour mettre au point des outils et méthodologies permettant de caractériser la sensibilité des mémoires (SRAM principalement) vis-à-vis de ce type d’effets. Néanmoins, avec l’augmentation importante de l’électronique embarquée et plus particulièrement, l’utilisation de composants de plus en plus complexes comme les microprocesseurs multicoeurs, il est devenu difficile, à l’aide des outils jusque là disponibles, de déterminer l’impact réel d’une erreur déclenchée dans un élément de mémorisation sur une application exécutée par le système électronique. L’utilisation des outils et méthodologies actuellement disponibles ne constituent alors qu'une approche pire cas : tous les éléments de mémorisation non protégés du composant sont comptabilisés et considérés comme sensibles, ce qui amène à considérer des marges importantes lors de l'analyse de risque de l'équipement. Une réduction importante de ces marges est possible en analysant le comportement dynamique de l'application opérée par le composant complexe. En effet, tous les éléments de mémorisation ne sont pas sensibles 100% du temps et de nombreux mécanismes de masquage peuvent faire en sorte qu'une erreur au niveau composant n'ait pas d'incidence sur l'application. Ce sujet de thèse aboutira à la mise au point d'un outil permettant de connaitre avec plus de précisions la sensibilité réelle d'une application opérée sur un microprocesseur, en vue d'optimiser les protections nécessaires et plus particulièrement, de tirer profit de l’architecture spécifique des microprocesseurs multicoeurs. Pour réaliser cette étude, les axes suivants seront investigués : - Étude de l’architecture des microprocesseurs - Utilisation des modèles de performance de processeurs - Utilisation des techniques d’émulation par FPGA - Analyse logicielle du code de l’application Des validations expérimentales sous laser et faisceau de particules seront également réalisées. / The electronic circuits embarked on the systems evolving in the spatial level or in the atmosphere are subjected(submitted) to naturally present particles which can cause(provoke) a disturbance of their functioning. The type(chap) of effect bound(connected) to these particles most of the time met in the logical components is the SEU. This effect corresponds to the inversion of the logical state of an element of memorization. Numerous studies were led to finalize(to work out) tools and methodologies allowing to characterize the sensibility of reports(memoirs) (SRAM mainly) towards this type(chap) of effects. Nevertheless, with the important increase of the embarked electronics and more particularly, the use of more and more complex components as microprocessors multihearts, he(it) became
139

Une approche intégrée du risque avalanche : quantification de la vulnérabilité physique et humaine et optimisation des structures de protection / An avalanche integrated risk approach : quantification of structural and human vulnerability and otpimisation of protection countermeasures

Favier, Philomène 13 October 2014 (has links)
La quantification du risque avalanche à long terme dans un but de zonage et d'optimisation des moyens de protection est fait dans la plupart des pays sur la base de la connaissance des événements de forte intensité. Ces approches fondées sur les périodes de retours, centrées uniquement sur l'aléa, ne considèrent pas explicitement les éléments à risque étudiés (bâtiments, personnes à l'intérieur, etc.) et négligent les possibles contraintes budgétaires. Afin de palier à ces limitations, les méthodes de zonage basés sur le risque et les analyses coût-bénéfice ont récemment émergées. Elles combinent la distribution de l'aléa avec les relations de vulnérabilité des éléments étudiés. Ainsi, l'évaluation systématisée de la vulnérabilité des bâtiments permet de mieux quantifier le risque dans un couloir d'avalanche donné. Cependant, en pratique, les relations de vulnérabilité disponibles restent principalement limitées à de rares estimations empiriques déduites de l'analyse de quelques catastrophes survenues. De plus, les méthodes existantes basées sur le risque font face à des calculs encore lourds, et les hypothèses sur la modélisation de l'aléa sont discutables (choix de quelques scénarios, faible considération des valeurs extrêmes, etc.). Dans cette thèse, ces problèmes sont abordés en construisant grâce à une approche fiabiliste des relations de fragilité de différents configurations de bâtiments en béton armé (BA) sollicités par des avalanches de neige et également des relations de fragilité pour les personnes potentiellement à l'intérieur de ces bâtiments. Ces relations sont ensuite utilisées dans un cadre de quantification du risque et de recherche de structure de défense optimale. L'apport de cette thèse est donc l'enrichissement de la caractérisation de la vulnérabilité et du risque face aux avalanches par des approches de complexités variables utilisables en fonction de la spécificité du cas et du temps imparti pour conduire l'étude. La thèse est composée de quatre volets. D'abord, les courbes de fragilité associées à différents états limites de murs en BA soumis au chargement uniforme d'une avalanche sont obtenues à partir d'approches classiques de dimensionnement du BA. Ensuite, l'approche est étendue à des modèles numériques de bâtis plus riches (modèle masse-ressort) permettant de décrire en particulier l'évolution temporelle de la réponse du système. A partir de ces relations de fragilité, de nouvelles relations pour les personnes à l'intérieur de ces bâtiments sont proposées. Ces relations pour les bâtiments et les personnes sont utilisées dans une analyse complète de sensibilité du risque. Enfin, une formule analytique du risque basée sur la statistique des valeurs extrêmes est proposée pour efficacement quantifier le risque et obtenir une caractéristique optimale de digue paravalanche. / Long term avalanche risk quantification for mapping and the design of defense structures is done in mostcountries on the basis of high magnitude events. Such return period/level approaches, purely hazardoriented,do not consider elements at risk (buildings, people inside, etc.) explicitly, and neglect possiblebudgetary constraints. To overcome these limitations, risk based zoning methods and cost-benefit analyseshave emerged recently. They combine the hazard distribution and vulnerability relations for the elementsat risk. Hence, the systematic vulnerability assessment of buildings can lead to better quantify the riskin avalanche paths. However, in practice, available vulnerability relations remain mostly limited to scarceempirical estimates derived from the analysis of a few catastrophic events. Besides, existing risk-basedmethods remain computationally intensive, and based on discussable assumptions regarding hazard modelling(choice of few scenarios, little consideration of extreme values, etc.). In this thesis, we tackle theseproblems by building reliability-based fragility relations to snow avalanches for several building types andpeople inside them, and incorporating these relations in a risk quantification and defense structure optimaldesign framework. So, we enrich the avalanche vulnerability and risk toolboxes with approaches of variouscomplexity, usable in practice in different conditions, depending on the case study and on the time availableto conduct the study. The developments made are detailed in four papers/chapters.In paper one, we derive fragility curves associated to different limit states for various reinforced concrete(RC) buildings loaded by an avalanche-like uniform pressure. Numerical methods to describe the RCbehaviour consist in civil engineering abacus and a yield line theory model, to make the computations asfast as possible. Different uncertainty propagation techniques enable to quantify fragility relations linkingpressure to failure probabilities, study the weight of the different parameters and the different assumptionsregarding the probabilistic modelling of the joint input distribution. In paper two, the approach is extendedto more complex numerical building models, namely a mass-spring and a finite elements one. Hence, muchmore realistic descriptions of RC walls are obtained, which are useful for complex case studies for whichdetailed investigations are required. However, the idea is still to derive fragility curves with the simpler,faster to run, but well validated mass-spring model, in a “physically-based meta-modelling” spirit. Inpaper three, we have various fragility relations for RC buildings at hand, thus we propose new relationsrelating death probability of people inside them to avalanche load. Second, these two sets of fragilitycurves for buildings and human are exploited in a comprehensive risk sensitivity analysis. By this way,we highlight the gap that can exist between return period based zoning methods and acceptable riskthresholds. We also show the higher robustness to vulnerability relations of optimal design approaches ona typical dam design case. In paper four, we propose simplified analytical risk formulas based on extremevalue statistics to quantify risk and perform the optimal design of an avalanche dam in an efficient way. Asensitivity study is conducted to assess the influence of the chosen statistical distributions and flow-obstacleinteraction law, highlighting the need for precise risk evaluations to well characterise the tail behaviour ofextreme runouts and the predominant patterns in avalanche - structure interactions.
140

Goodness-of-fit tests in reliability : Weibull distribution and imperfect maintenance models / Tests d'adéquation en fiabilité : Loi de Weibull et modèles de maintenance imparfaite

Krit, Meryam 16 October 2014 (has links)
Ce travail porte sur les tests d'adéquation en fiabilité, à la fois pour les systèmes non réparables et les systèmes réparables. Les tests d'adéquation sont des outils efficaces pour vérifier la pertinence d'un modèle pour un jeu de données. Pour les systèmes non réparables, la loi exponentielle et la loi de Weibull sont les lois de durée de vie les plus utilisées en fiabilité. Une comparaison exhaustive des tests d'adéquation pour la loi exponentielle est présentée pour des données complètes et censurées, suivie par des recommandations d'utilisation de ces tests. La loi de Weibull à deux paramètres permet de modéliser des taux de hasard décroissants et croissants contrairement à la loi exponentielle qui suppose un taux de hasard constant. Cependant, il existe moins de tests d'adéquation à la loi de Weibull dans la littérature. Une revue exhaustive des tests existant est effectuée et deux familles de tests exacts sont preésentées. La première famille est la famille des tests basés sur la vraisemblance et la deuxième est la famille des tests basés sur la transformée de Laplace. Des propriétés asymptotiques des nouvelles statistiques de tests sont établies. Une comparaison complète des tests d'adéquation pour la loi de Weibull est effectuée. Des recommandations sur les tests les plus puissants sont données en fonction des caractéristiques du jeu de donnés testé. Pour les systèmes réparables, de nouveaux tests d'adéquation sont développés pour des modèles de maintenance imparfaite avec à la fois des maintenances correctives et des maintenances préventives déterministes. Ces tests sont exacts et peuvent être appliqués à des petits jeux de données. Finalement, des applications à de vrais jeux de données issus de l'industrie sont effectuées pour des systèmes réparables et des systèmes non réparables. / This work deals with goodness-of-fit (GOF) tests in reliability for both non repairable and repairable systems. GOF tests are efficient techniques to check the relevance of a model for a given data set. For non repairable systems, the Exponential and Weibull distributions are the most used lifetimes distributions in reliability. A comprehensive comparison study of the GOF tests for the Exponential distribution is presented for complete and censored samples followed by recommendations about the use of the tests. The two-parameter Weibull distribution allows decreasing and increasing failure rates unlike the Exponential distribution that makes the assumption of a constant hazard rate. Yet, there exist less GOF tests in the literature for the Weibull distribution. A comprehensive review of the existing GOF tests is done and two new families of exact GOF tests are introduced. The first family is the likelihood based GOF tests and the second is the family of tests based on the Laplace transform. Theoretical asymptotic properties of some new tests statistics are established. A comprehensive comparison study of the GOF tests for the Weibull distribution is done. Recommendations about the most powerful tests are given depending on the characteristics of the tested data sets. For repairable systems, new GOF tests are developed for imperfect maintenance models when both corrective maintenance and deterministic preventive maintenance are performed. These tests are exact and can be applied to small data sets. Finally, illustrative applications to real data sets from industry are carried out for repairable and non repairable systems.

Page generated in 0.0566 seconds