• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 8
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 45
  • 45
  • 45
  • 12
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contribution à l'évaluation de la sûreté de fonctionnement des systèmes instrumentés de sécurité intégrant de l'intelligence

Mkhida, Abdelhak 14 November 2008 (has links) (PDF)
L'incorporation des instruments intelligents dans les boucles de sécurité nous mène vers une sécurité intelligente et les systèmes deviennent des « systèmes instrumentés de sécurité à intelligence distribuée (SISID) ». La justification de l'usage de ces instruments dans les applications de sécurité n'est pas complètement avérée. L'évaluation de la sûreté de fonctionnement de ce type de systèmes n'est pas triviale. Dans ce travail, la modélisation et l'évaluation des performances relatives à la sûreté de fonctionnement des systèmes instrumentés de sécurité (SIS) sont traitées pour des structures intégrant de l'intelligence dans les instruments de terrain. La méthodologie que nous utilisons consiste en la modélisation de l'aspect fonctionnel et dysfonctionnel de ces systèmes en adoptant le formalisme basé sur les réseaux de Petri stochastiques qui assurent la représentation du comportement dynamique de ce type de systèmes. La modélisation est traitée sous la forme d'une approche stochastique utilisant les réseaux d'activité stochastiques SAN (Stochastic Activity Network). L'introduction d'indicateurs de performances permet de mettre en évidence l'effet de l'intégration des niveaux d'intelligence dans les applications de sécurité. La méthode de Monte Carlo est utilisée pour évaluer les paramètres de sûreté de fonctionnement des SIS en conformité avec les normes de sécurité relatives aux systèmes instrumentés de sécurité (CEI 61508 et CEI 6151). Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes instrumentés de sécurité (SIS) intégrant quelques fonctionnalités des instruments intelligents.
22

Influence de la variabilité spatiale en interaction sismique sol-structure

Savin, Eric 24 November 1999 (has links) (PDF)
Les études des phénomènes d'interaction sismique sol-structure pour le dimensionnement d'ouvrages en génie civil sont fondées sur deux hypothèses simplificatrices fortes : l'homogénéité latérale du sol sous la fondation, et la représentation du mouvement sismique par des ondes planes à incidences verticales ou inclinées. Pour de grands ouvrages reposant sur des radiers flexibles étendus, ces hypothèses ne sont plus valides, d'autant que les observations in situ des ondes sismiques font apparaître une variabilité spatiale importante même sur de courtes distances et indépendamment de l'effet du passage d'onde. Dans ce travail sont développés les outils de modélisation et d'analyse numérique permettant de tenir compte de cette variabilité ainsi que de celle des caractéristiques mécaniques du sol. Une approche probabiliste est retenue, et leur influence est directement reliée à la réponse de la structure au séisme par une formulation intégrale incorporant ces deux aspects simultanément. Pour une mise en oeuvre numérique efficace, la dimension aléatoire des fluctuations - grandes ou petites - aléatoires des caractéristiques mécaniques du sol est réduite par l'introduction du développement de Karhunen-Loeve de l'opérateur de raideur dynamique associé. Cette technique est aussi appliquée au champ sismique incident. Les résultats obtenus pour des cas complexes réalistes permettent de mettre en évidence certains phénomènes dont l'appréhension apparaît indispensable dans le cadre d'une étude industrielle. Ils donnent notamment quelques indications utiles sur la sensibilité de la réponse de la structure à la variabilité spatiale du mouvement sismique ou des paramètres du sol.
23

Contribution à l'optimisation de la conception des engrenages coniques à denture droite: analyse et synthèse de la géométrie et des tolérances

Bruyère, Jérôme 11 1900 (has links) (PDF)
La maîtrise accrue des matériaux et des procédés de forgeage permet aujourd'hui d'obtenir des engrenages coniques d'une qualité suffisante pour pouvoir les utiliser sans autre procédé de finition. Ce sont les pièces dites «net shape». Grâce à cette évolution technologique, il est nécessaire de d'optimiser la définition géométrique de ces engrenages en tenant compte des possibilités des procédés de forgeage, en particulier. Tout d'abord, la définition de la géométrie nominale des engrenages coniques à denture droite basée sur les propriétés géométriques et cinématiques du profil en développante de cercle sphérique est réétudiée et a abouti à une modélisation paramétrique des surfaces actives en intégrant un bombé longitudinal. Afin de garantir un certain niveau de qualité de l'engrènement, il est nécessaire de limiter les variations inhérentes au procédé de forgeage et aux ressources de fabrication, il s'agit de l'analyse et de la synthèse des tolérances. Cette analyse a nécessité une modélisation géométrique des engrenages incluant les écarts intrinsèques et les écarts de situation. L'analyse de l'impact de ces écarts sur l'erreur cinématique (Tooth Contact Analysis) repose sur la résolution d'un système d'équations non linéaires pour chaque position du pignon et d'un traitement de ces résultats; la difficulté de cette analyse est la grande sensibilité des résultats aux écarts. Cet outil «TCA» est le module principal de l'analyse des tolérances qui est réalisée de façon statistique par simulation de Monte Carlo. L'analyse des tolérances permet de valider une solution d'allocation de celles-ci mais ne permet pas son allocation automatique. Ainsi une approche de synthèse des tolérances a été validée, il s'agit de l'optimisation par algorithme génétique où la fonction objectif est de minimiser le ratio coût des tolérances sur la probabilité de respect des exigences. Cette analyse et cette synthèse ont été menées dans un premier temps sans charge, en considérant l'engrenage comme indéformable. Puis, la prise en compte des déformations est réalisée par la méthode des coefficients d'influences. Le problème de contact et de déformation globale de la denture sont découplés. Les coefficients d'influences de contact sont estimés par la méthode de Boussinesq et Cerruti. Les coefficients d'influence de flexion sont estimés par interpolation et méthode des éléments finis. Ce modèle permet l'analyse de l'engrènement sous charge mais les temps de calculs restent un handicap pour l'analyse des tolérances. Ces modèles de comportement pourront être affinés dans de futurs travaux et être le support de nouveaux modèles de spécification des engrenages, de suivi du processus de fabrication, d'une meilleure connaissance des interactions géométrie-mécanique-matériau, etc.
24

Méthodes de Monte Carlo du second ordre et d'inférence bayésienne pour l'évaluation des risques microbiologiques et des bénéfices nutritionnels dans la transformation des légumes

Rigaux, Clémence, Rigaux, Clémence 14 February 2013 (has links) (PDF)
L'objectif du travail est de mettre en place des méthodes d'évaluation des risques microbiologiques et des bénéfices nutritionnels lors de la transformation des légumes, en vue d'une analyse risque-bénéfice. Le risque (industriel) considéré est l'altération des conserves de haricots verts due à la bactérie thermophile Geobacillus stearothermophilus, et le bénéfice nutritionnel est la teneur en vitamine C des haricots verts appertisés. Des paramètres de référence ont d'abord été acquis, par une méta-analyse par approche bayésienne pour la partie risque. Les paramètres de résistance thermique D à 121.1°C et pH 7, zT et zpH de G.stearothermophilus ont ainsi été estimés respectivement à 3.3 min, 9.1°C et 4.3 unités pH en moyenne en milieu aqueux. Les modèles risque et bénéfice ont ensuite été analysés par la méthode de simulation de Monte Carlo à deux dimensions, permettant une propagation séparée de la variabilité et de l'incertitude. Les pertes en vitamine C prédites par le modèle entre la matière première et les légumes appertisés sont de 86% en moyenne, et le taux de non-stabilité à 55°C prédit est de 0.5% en moyenne, globalement en accord avec la réalité. Une analyse risque-bénéfice a ensuite visé à optimiser le bénéfice tout en gardant le risque à un niveau acceptable, par exploration de scénarios d'interventions possibles basés sur les résultats d'analyses de sensibilité. Enfin, un modèle d'évaluation des risques dus à la bactérie pathogène Bacillus cereus dans une purée de courgettes a été confronté à des données de contamination dans des produits incubés, par le biais d'une inférence bayésienne.
25

Développement de méthodes probabilistes pour l'analyse des tolérances des systèmes mécaniques sur-contraints / Development of probabilistic methods for the tolerance analysis of overconstrained mechanisms

Dumas, Antoine 10 December 2014 (has links)
L'analyse des tolérances des mécanismes a pour but d'évaluer la qualité du produit lors de sa phase de conception. La technique consiste à déterminer si, dans une production de grandes séries, le taux de rebuts des mécanismes défaillants est acceptable. Deux conditions doivent être vérifiées: une condition d'assemblage et une condition fonctionnelle. La méthode existante se base sur le couplage de la simulation de Monte Carlo avec un algorithme d'optimisation qui est très couteuse en temps de calcul. L'objectif des travaux de thèse est de développer des méthodes plus efficaces basées sur des approches probabilistes. Dans un premier temps, il est proposé une linéarisation des équations non linéaires du modèle de comportement afin de simplifier l'étape faisant appel à l'algorithme d'optimisation. Une étude de l'impact de cette opération sur la qualité de la probabilité est menée. Afin de minimiser l'erreur d'approximation, deux procédures itératives pour traiter le problème d'assemblage sont proposées. Ils permettent de calculer la probabilité de défaillance d'assemblage de façon précise en un temps de calcul réduit. En outre, les travaux de thèse ont permis le développement d'une nouvelle méthode de résolution basée sur la méthode de fiabilité système FORM (First Order Reliability Method) système. Cette méthode permet de traiter uniquement le problème fonctionnel. Elle a nécessité la mise au point d'une nouvelle formulation du problème d'analyse des tolérances sous forme système. La formulation décompose le mécanisme hyperstatique en plusieurs configurations isostatiques, le but étant de considérer les configurations dominantes menant à une situation de défaillance. La méthode proposée permet un gain de temps considérable en permettant d'obtenir un résultat en quelques minutes, y compris pour atteindre des faibles probabilités. / Tolerance analysis of mechanism aims at evaluating product quality during its design stage. Technique consists in computing a defect probability of mechanisms in large series production. An assembly condition and a functional condition are checked. Current method mixes a Monte Carlo simulation and an optimization algorithm which is too much time consuming. The objective of this thesis is to develop new efficient method based on probabilistic approach to deal with the tolerance analysis of overconstrained mechanism. First, a linearization procedure is proposed to simplify the optimization algorithm step. The impact of such a procedure on the probability accuracy is studied. To overcome this issue, iterative procedures are proposed to deal with the assembly problem. They enable to compute accurate defect probabilities in a reduced computing time. Besides, a new resolution method based on the system reliability method FORM (First Order Reliability Method) for systems was developed for the functional problem. In order to apply this method, a new system formulation of the tolerance analysis problem is elaborated. Formulation splits up the overconstrained mechanism into several isoconstrained configurations. The goal is to consider only the main configurations which lead to a failure situation. The proposed method greatly reduces the computing time allowing getting result within minutes. Low probabilities can also be reached and the order of magnitude does not influence the computing time.
26

Investigation of the formation mechanisms of the High Burnup Structure in the spent nuclear fuel - Experimental simulation with ions beams / Élucidation des mécanismes de formation de la structure HBS (High Burnup Structure) dans le combustible nucléaire - Simulation expérimentale par faisceaux d'ions

Haddad, Yara 07 December 2017 (has links)
L’objectif de cette thèse est d’étudier et de reproduire les caractéristiques spécifiques de la microstructure du combustible nucléaire irradié à fort taux de combustion, appelée structure HBS (High Burnup Structure). Il s’agit d’étudier les différents paramètres pertinents impliqués dans la formation d’une telle structure, en évaluant leur importance, et en clarifiant leurs éventuelles synergies. Cet objectif a été réalisé en utilisant un système de modèle ultra simplifié, à savoir des monocristaux de dioxyde d’uranium (UO₂) irradiés par des ions de basse énergie (quelques centaines de keV) de Lanthane (La) ou de xénon (Xe) à une température de 773 K, correspondant à celle de la périphérie des véritables pastilles de combustible en réacteur. Les énergies et les masses des ions ont été choisies pour étudier la déstabilisation du solide en fonction de deux paramètres-clefs: (i) les collisions nucléaires élastiques et (ii) la contribution chimique de l'incorporation d'impuretés à forte concentration. Les deux espèces ont été choisies délibérément pour leurs solubilités très différentes dans le dioxyde d’uranium: les ions La sont solubles dans l'UO₂ jusqu’à de très fortes concentrations, tandis que les ions Xe sont insolubles. Les techniques de la Microscopie Électronique en Transmission (TEM) et de Spectrométrie de Rétrodiffusion Rutherford en canalisation RBS/C ont été conduites in situ couplée avec l’irradiation. Ces deux techniques utilisées pour visualiser, quantifier et fournir des informations concernant la fraction des défauts induits par l’irradiation et la formation des bulles, de cavités ou de précipités dans le solide. Les données de canalisation ont été analysées par simulation Monte-Carlo en supposant l’existence de deux catégories de défauts : (i) des atomes aléatoirement déplacés (RDA) et (ii) des distorsions des rangés atomiques (BC). L’évolution de la fraction de défaut de type RDA montre une forte augmentation entre 0.4 à 4.0 dpa (correspondant à une très faible concentration des ions implantés), indépendamment de la nature des ions. Elle est suivie par une saturation de la fraction de RDA pour les deux ions sur une large gamme d’irradiation quoi s’étend jusque 100 dpa. Une forte élévation de la fraction de RDA est observée en particulier pour les cristaux implantés avec des ions Xe pour une concentration élevée dépassant les 4%. En ce qui concerne l’évolution de BC, elle augmente fortement jusqu’à 4 dpa et sature ensuite deux ions La et Xe. Les résultats de microscopie électronique in situ montrent que des défauts identiques pour les deux ions induits par l’irradiation apparaissent, et présentent la même évolution en fonction de la fluence. Les différents défauts évoluent en fonction de la fluence : la première étape correspond à la formation de ‘black dots’ ; la deuxième étape est caractérisée par la formation de boucles puis de lignes de dislocations, qui évoluent finalement jusqu’à commencer à devenir moins différenciables; le processus de restructuration se poursuit et forme un réseau de dislocations enchevêtrées. Une forte densité de bulles de gaz, de taille nanométrique et avec un diamètre moyen de 2 nm est observée pour le cristal Xe implanté à une dose seuil de 4 dpa. Le couplage des deux techniques conduites in situ montre que la différence entre les valeurs à saturation des fractions RDA des deux ions, d’une part, et l'augmentation drastique de RDA à très forte concentration d'ions Xe implantés d’autre part peuvent être attribuées à : (i) la solubilité des ions La vis-à-vis des ions Xe, conduisant à la formation des bulles de gaz de taille nanométrique et (ii) la taille des espèces implantées dans la matrice UO₂, pour laquelle les atomes Xe insolubles ont un rayon atomique beaucoup plus grand que le rayon cationique des atomes U⁴⁺(les atomes La³⁺ ont un rayon atomique similaire à celui des atomes U⁴⁺), responsable de plus de contraintes supplémentaires dans la structure cristalline. / The aim of this thesis is to investigate and reproduce the specific features of the microstructure of the high burnup structure of the irradiated nuclear fuel and to explore the various relevant parameters involved in the formation of such a structure, in evaluating their importance, and in clarifying the synergies between them. This have been performed by using a very simplified model system – namely uranium dioxide single crystals- irradiated with low energy La and Xe ions at 773 K, corresponding to the temperature at the periphery of the genuine fuel. The energies and masses of bombarding ions were chosen to investigate the destabilization of the solid due to: (i) the elastic nuclear collisions and by (ii) the chemical contribution of implanting impurities at high concentrations by implanting different ions in UO₂, namely Xe and La, having very different solubility: La species are soluble in UO₂ while Xe ions are insoluble. In situ Transmission electron Microscopy (TEM) and in situ Rutherford Backscattering Spectrometry in the channeling mode (RBS/C), both techniques coupled to ion irradiation, were performed to visualize, quantify and provide information with respect to the fraction of radiation-induced defects and the formation of bubbles, cavities, or precipitates. The channeling data were analyzed afterwards by Monte Carlo simulations assuming two class of defects comprising (i) randomly displaced atoms (RDA) and (ii) bent channels (BC) defects. Regarding the RDA evolution, a sharp increase step appears from 0.4 to 4.0 dpa (corresponding to a low concentration of implanted ions) regardless of nature of ions followed by a saturation of the fraction of RDA for both ions over a wide range of irradiation. A sharp increase of RDA fraction is observed specifically for crystals implanted with Xe ions at a high concentration exceeding 1.5 % (corresponding to the dose of more than 125 dpa). Regarding the BC evolution, for both ions, the evolution shows an increase in the fraction of BC up to 4.0 dpa then the fraction of BC almost saturates for Xe and La ions. In situ TEM results show that a similar radiation-induced defects appear for both ions and the same evolution of defects as a function of the fluence is observed. The various defects evolved as a function of the fluence: starting from the black dot defects formation that were observed as a first type of defects created, then dislocation lines and loops appeared and evolved until they started to be become less distinguishable, the restructuring process continued by forming a tangled dislocation network. A high density of nanometer-sized gas bubbles with a mean diameter 2 nm were observed at room temperature for the Xe-implanted crystal at a threshold dose of 4 dpa. The coupling between both techniques (in situ RBS/C and TEM) demonstrates that the difference between the two plateaus of saturation between the two ions and the dramatic increase of RDA at high concentration of implanted Xe ions can be ascribed to: (i) the solubility of La compared to Xe ions leading to the formation of nanometer-sized gas bubbles and (ii) the size of implanted species in UO₂ matrix where insoluble Xe atoms have an atomic radius much larger than the cationic radius of U⁴⁺ atoms, (La³⁺ atoms have a similar atomic radius as U⁴⁺ atoms) responsible for more stress in UO₂ crystal.
27

Shape Evolution of Nanostructures by Thermal and Ion Beam Processing: Modeling & Atomistic Simulations

Röntzsch, Lars 17 December 2007 (has links)
Single-crystalline nanostructures often exhibit gradients of surface (and/or interface) curvature that emerge from fabrication and growth processes or from thermal fluctuations. Thus, the system-inherent capillary force can initiate morphological transformations during further processing steps or during operation at elevated temperature. Therefore and because of the ongoing miniaturization of functional structures which causes a general rise in surface-to-volume ratios, solid-state capillary phenomena will become increasingly important: On the one hand diffusion-mediated capillary processes can be of practical use in view of non-conventional nanostructure fabrication methods based on self-organization mechanisms, on the other hand they can destroy the integrity of nanostructures which can go along with the failure of functionality. Additionally, capillarity-induced shape transformations are effected and can thereby be controlled by applied fields and forces (guided or driven evolution). With these prospects and challenges at hand, formation and shape transformation of single-crystalline nanostructures due to the system-inherent capillary force in combination with external fields or forces are investigated in the frame of this dissertation by means of atomistic computer simulations. For the exploration (search, description, and prediction) of reaction pathways of nanostructure shape transformations, kinetic Monte Carlo (KMC) simulations are the method of choice. Since the employed KMC code is founded on a cellular automaton principle, the spatio-temporal development of lattice-based N-particle systems (N up to several million) can be followed for time spans of several orders of magnitude, while considering local phenomena due to atomic-scale effects like diffusion, nucleation, dissociation, or ballistic displacements. In this work, the main emphasis is put on nanostructures which have a cylindrical geometry, for example, nanowires (NWs), nanorods, nanotubes etc.
28

Courbes de fragilité pour les ponts au Québec tenant compte du sol de fondation / Fragility curves for bridges in Québec accounting for soil-foundation system

Suescun, Juliana Ruiz January 2010 (has links)
Abstract : Fragility curves are a very useful tool for seismic risk assessment of bridges. A fragility curve describes the probability of a structure being damaged beyond a specific damage state for different levels of ground shaking. Since more than half of all bridges in the province of Quebec (Canada) are in service for more than 30 years and that these bridges were designed at that time without seismic provisions, generating fragility curves for these structures is more than necessary. These curves can be used to estimate damage and economic loss due to an earthquake and prioritize repairs or seismic rehabilitations of bridges. Previous studies have shown that seismic damage experienced by bridges is not only a function of the epicentral distance and the severity of an earthquake but also of the structural characteristics of the bridge and the soil type on which it is built. Current methods for generating fragility curves for bridges do not account for soil conditions. In this work, analytical fragility curves are generated for multi-span continuous concrete girder bridges, which account for 21% of all bridges in Quebec, for the different soil profile types specified in the Canadian highway bridge design code (CAN/CSA-S6-06). These curves take into account the different types of abutment and foundation specific to these bridges. The fragility curves are obtained from time-history nonlinear analyses using 120 synthetic accelerograms generated for eastern Canadian regions, and from a Monte Carlo simulation to combine the fragility curves of the different structural components of a bridge||Résumé : Les courbes de fragilité sont un outil très utile pour l’évaluation du risque sismique des ponts. Une courbe de fragilité représente la probabilité qu'une structure soit endommagée au-delà d'un état d'endommagement donné pour différents niveaux de tremblement de terre. Étant donné que plus de la moitié des ponts dans la province de Québec (Canada) ont plus de 30 années de service et que ces ponts n'ont pas été conçus à l'époque à l'aide de normes sismiques, la génération de courbes de fragilité pour ces structures est plus que nécessaire. Ces courbes peuvent servir à estimer les dommages et les pertes économiques causés par un tremblement de terre et à prioriser les réparations ou les réhabilitations sismiques des ponts. Des études antérieures ont montré que l'endommagement subi par les ponts suite à un tremblement de terre n'est pas seulement fonction de la distance de l'épicentre et de la sévérité du tremblement de terre, mais aussi des caractéristiques structurales du pont et du type de sol sur lequel il est construit. Les méthodes actuelles pour générer les courbes de fragilité des ponts ne tiennent pas compte des conditions du sol. Dans ce travail de recherche, des courbes de fragilité analytiques sont générées pour les ponts à portées multiples à poutres continues en béton armé, soit pour 21% des ponts au Québec, pour les différents types de sol spécifiés dans le Code canadien sur le calcul des ponts routiers (CAN/CSA-S6-06). Ces courbes prennent en compte les différents types de culée et de fondation spécifiques à ces ponts. Les courbes de fragilité sont obtenues à partir d'analyses temporelles non linéaires réalisées à l'aide de 120 accélérogrammes synthétiques généres pour l’est du Canada, et d'une simulation de Monte Carlo pour combiner les courbes de fragilité des différentes composantes du pont.
29

Méthode de simulation avec les variables antithétiques

Gatarayiha, Jean Philippe 06 1900 (has links)
Les fichiers qui accompagnent mon document ont été réalisés avec le logiciel Latex et les simulations ont été réalisés par Splus(R). / Dans ce mémoire, nous travaillons sur une méthode de simulation de Monte-Carlo qui utilise des variables antithétiques pour estimer un intégrale de la fonction f(x) sur un intervalle (0,1] où f peut être une fonction monotone, non-monotone ou une autre fonction difficile à simuler. L'idée principale de la méthode qu'on propose est de subdiviser l'intervalle (0,1] en m sections dont chacune est subdivisée en l sous intervalles. Cette technique se fait en plusieurs étapes et à chaque fois qu'on passe à l'étape supérieure la variance diminue. C'est à dire que la variance obtenue à la kième étape est plus petite que celle trouvée à la (k-1)ième étape ce qui nous permet également de rendre plus petite l'erreur d’estimation car l'estimateur de l'intégrale de f(x) sur [0,1] est sans biais. L'objectif est de trouver m, le nombre optimal de sections, qui permet de trouver cette diminution de la variance. / In this master thesis, we consider simulation methods based on antithetic variates for estimate integrales of f(x) on interval (0,1] where f is monotonic function, not a monotonic function or a function difficult to integrate. The main idea consists in subdividing the (0,1] in m sections of which each one is subdivided in l subintervals. This method is done recursively. At each step the variance decreases, i.e. The variance obtained at the kth step is smaller than that is found at the (k-1)th step. This allows us to reduce the error in the estimation because the estimator of integrales of f(x) on interval [0,1] is unbiased. The objective is to optimize m.
30

Développement de stratégies de conception en vue de la fiabilité pour la simulation et la prévision des durées de vie de circuits intégrés dès la phase de conception

Bestory, Corinne 17 September 2008 (has links)
La conception en vue de la fiabilité (DFR, Design for Reliability) consiste à simuler le vieillissement électrique des composants élémentaires pour évaluer la dégradation d'un circuit complet. C'est dans ce contexte de fiabilité et de simulation de cette dernière, qu'une stratégie de conception en vue de la fiabilité a été développée au cours de ses travaux. Cette stratégie, intégrant une approche « système » de la simulation, s'appuie sur l'ajout de deux étapes intermédiaires dans la phase de conception. La première étape est une étape de construction de modèles comportementaux compacts à l'aide d'une méthodologie basée sur une approche de modélisation multi niveaux (du niveau transistor au niveau circuit) des dégradations d'un circuit. La seconde étape consiste alors l'analyse descendante de la fiabilité de ce circuit, à l'aide de simulations électriques utilisant ses modèles comportementaux dits « dégradables », afin de déterminer les blocs fonctionnels et/ou les composants élémentaires critiques de l'architecture de ce dernier, vis-à-vis d'un mécanisme de défaillance et un profil de mission donnés. Cette analyse descendante permet aussi d'évaluer l'instant de défaillance de ce circuit. Les dispersions statiques, lies au procédé de fabrication utilisé, sur les performances d'un lot de CIs ont aussi été prises en compte afin d'évaluer leur impact sur la dispersion des instants de défaillance des circuits intégrés. Ces méthodes ont été appliquées à deux mécanismes de dégradation : les porteurs chauds et les radiations. / Design for reliability (DFR) consists in assessing the impact of electrical ageing of each elementary component, using electrical simulations, on performance degradations of a full device. According to DFR concept and reliability simulation, theses works present a new DFR strategy. This strategy based on the integration of two intermediate phases in the ICs and SoC design flow. The first phase is a bottom-up ageing behavioural modelling phase of a circuit (from transistor level to circuit level). The second phase is a « top-down reliability analyses » phase of this circuit, performing electrical simulations using its ageing behavioural models, in order to determine critical functional blocks and / or elementary components of its architecture according to a failure mechanism and a given mission profile. Theses analyses also allow determining the failure time of this circuit. Statistical dispersions on ICs performances, due to the used manufacturing process, have been taking into account in order to assess their impact on failure time dispersions of a ICs lot. The method has been applied on two degradation mechanisms: hot carriers and radiations.

Page generated in 0.1134 seconds