• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation dynamique de systèmes complexes pour le calcul de grandeurs fiabilistes et l’optimisation de la maintenance / Dynamic modeling of complex systems for reliability calculations and maintenance optimization

Lair, William 18 November 2011 (has links)
L’objectif de cette thèse est de proposer une méthode permettant d’optimiser la stratégie de maintenance d’un système multi-composants. Cette nouvelle stratégie doit être adaptée aux conditions d’utilisation et aux contraintes budgétaires et sécuritaires. Le vieillissement des composants et la complexité des stratégies de maintenance étudiées nous obligent à avoir recours à de nouveaux modèles probabilistes afin de répondre à la problématique. Nous utilisons un processus stochastique issu de la Fiabilité Dynamique nommé processus markovien déterministe par morceaux (Piecewise Deterministic Markov Process ou PDMP). L’évaluation des quantités d’intérêt (fiabilité, nombre moyen de pannes...) est ici réalisé à l’aide d’un algorithme déterministe de type volumes finis. L’utilisation de ce type d’algorithme, dans ce cadre d’application, présente des difficultés informatiques dues à la place mémoire. Nous proposons plusieurs méthodes pour repousser ces difficultés. L’optimisation d’un plan de maintenance est ensuite effectuée à l’aide d’un algorithme de recuit simulé. Cette méthodologie a été adaptée à deux systèmes ferroviaires utilisés par la SNCF, l’un issu de l’infrastructure, l’autre du matériel roulant. / The aim of this work is to propose a methodology to optimize a multi-components system maintenance. This new maintenance strategy must be adapted to budget and safety constraints and operating conditions. The aging of components and the complexity of studied maintenance strategies require us to use new probabilistic models in order to address the problem. A stochastic process from Dynamic Reliability calculations are here established by using a deterministic algorithm method based on a finite volume scheme. Using this type of algorithm in this context of application presents difficulties due to computer memory space. We propose several methods to counter these difficulties. The optimization of a maintenance plan is then performed using simulated annealing algorithm. This methodology was used to optimize the maintenance of two rail systems used by the French national railway company (SNCF).
2

Etude statistique et modélisation de la dégradation NBTI pour les technologies CMOS FDSOI et BULK. / Statistical study and modeling of NBTI degradation for CMOS FDSOI and BULK technologies

Nouguier, Damien 28 September 2018 (has links)
L’industrie microélectronique arrive à concevoir des transistors atteignant dimensions de l’ordre de la dizaine de nanomètres. Et ce faisant elle tend atteindre ses limites en terme de réduction des dimensions des transistors CMOS. Or à ces dimensions, la fiabilité et la variabilité des dispositifs prennent une ampleur critique en ce qui concerne les prédictions de durée de vie et de garantie des composants. Parmi les aspects critiques, la dégradation NBTI (Négative Bias Temperature Instability) représente l’un des plus gros défis en termes de fiabilité. Cette dégradation tire son origine d’un piégeage de charge dans l’oxyde de grille et est responsable pour une grande partie de la dégradation des transistors. A l’aide d’un important travail expérimental, nous avons caractérisé à l’aide de mesure rapide les cinétiques de dégradation et de relaxation de la dégradation NBTI, puis nous avons travaillé sur la modélisation des phases de stress et de relaxation. Nous sommes parvenues à créer un modèle pour le stress et la relaxation que nous avons éprouvé sur un certain nombre de nœuds technologiques allant du 14nm FDSOI au 180nm Bulk. Nous avons aussi évalué l’impact de certains changements de procédées de fabrication sur la dégradation NBTI.Enfin nous proposons une étude poussée de la variabilité induite par le NBTI et du modèle DCM (Defect centric Model) permettant de modéliser cette variabilité. Nous proposons alors une correction mathématique de ce modèle, et la possibilité de le réécrire afin de pouvoir l’utiliser pour un plus grand nombre de défauts. Enfin nous mettrons ce modèle en échec sur les prédictions qu’il fait de défauts et nous proposons un nouveau modèle sous la forme d’un DCM à deux défauts ou DDCM (Dual Defect Centric Model).Mots-clés : Microélectronique, FDSOI, Bulk, variabilité, NBTI, caractérisation électrique, modélisation. / The microelectronics industry is able to design transistors reaching dimensions of the order of ten nanometers. And doing this, we reaching the limits in terms of size reduction of CMOS transistors. At these dimensions, the reliability and variability of the devices is critical in terms of lifetime prediction and component warranty. Among the critical aspects, NBTI (Negative Bias Temperature Instability) degradation represents one of the biggest challenges in terms of reliability. This degradation coming from a charge trapping in the gate oxide is responsible for a large part of the degradation of the transistors. Performing a huge experimental work based on the characterization of the kinetic of degradation and relaxation of the NBTI degradation with rapid measurements, allowing us to work on the modeling of the stress and relaxation phases of NBTI degradation. We have successfully create a model for stress and relaxation of the NBTI degradation. These models were then tested on several technological nodes from 14nm FDSOI to 180nm Bulk. We also study the impact of some process changes on NBTI degradation. Finally, we propose a detailed study of the variability induced by the NBTI and the DCM model (Defect centric Model) allowing to model this variability. We also propose a mathematical correction of this model but also another mathematical expression of this model allowing to use it for a large number of defects. Enfin, nous prouvons que DCM est défectueux dans sa prédiction du nombre de défauts et nous proposons un nouveau modèle sous la forme d'un DCM avec deux défauts ou DDCM (Dual Defect Centric Model).
3

Modélisation des stratégies de remplacement de composant et de systèmes soumis à obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement. La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance. Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante : si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement. La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ; ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration)... De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique. Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement. Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature. Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires. Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques. Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés. Le texte est structuré de la manière suivante : Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.
4

Contribution au développement d’outils analytiques et numériques pour quantifier et qualifier la robustesse des structures / Development of analytical and numerical tools to quantify and qualify the robustness of structure

Seck, El Hadji Boubacar 12 July 2018 (has links)
Les notions de robustesse structurale sont intégrées dans les codes de conception européens suite à l'effondrement partiel et progressif de la tour Ronan Point de Canning Town à Londres (Angleterre, 16.05.1968). Le cadre réglementaire des Eurocodes définit la robustesse comme l'aptitude d'une structure à résister à des événements accidentels dits identifiés (incendies, explosions, chocs) ou non identifiés (conséquences d'une erreur humaine, attentats) sans présenter de dégâts disproportionnés par rapport à la cause d'origine. Cette définition incite les ingénieurs à inclure dans les procédures de conception les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). L'objectif de ces travaux de thèse est de développer un outil de simulation de la robustesse de structures lorsque des incertitudes de sollicitations (évènement accidentel) et / ou une faute de dimensionnement (conception ou de réalisation) interfèrent avec les dimensionnements réglementaires. La robustesse est évaluée à travers un indice compris entre 0 (structure peu robuste) et 1 (structure très robuste) et calculé à partir des probabilités de défaillance initiale et globale. Cette thèse propose une méthodologie reposant sur la recherche d’arbres complets d'évènements illustrant l'ensemble des cheminements potentiels d'une défaillance initiale localisée jusqu'à la ruine globale. L'approche développée s'applique aux structures hyperstatiques, dans lesquelles la rupture d'un ou plusieurs éléments n'entraine pas systématiquement la ruine de l'ensemble de la structure. En effet, les éléments non endommagés restants peuvent être en mesure de supporter les chargements externes par une redistribution des efforts internes.La procédure est illustrée dans les cas de structures unidimensionnelles hyperstatiques de poutres bi-encastrées et d'un portique référencé dans les normes et classiquement étudié dans la littérature. Le mode local de défaillance de nos simulations est la formation d'une rotule (fragile ou plastique) lorsque le moment sollicitant appliqué atteint la valeur du moment résistant d'une section droite. Deux types de lois probabilistes, Gaussiennes et Log-normales, sont testées par l'approche développée et par des simulations Monte-Carlo. Les variables aléatoires choisies peuvent être indépendantes ou corrélées. Nous présentons les résultats sous forme d’arbres d'évènements comportant l'ensemble des branches exclusives, sans intersection entre branches issues d’un même nœud. Cette spécificité permet de calculer des indices caractérisant la robustesse de la structure selon chaque scénario.L'analyse de l’arbre des évènements et des indices de robustesse permet de mettre en évidence les fragilités potentielles pouvant engendrer une défaillance généralisée d'une structure vis-à-vis d’accidents ou d’actes de malveillance. La méthode développée fournit un outil de simulation et de diagnostic efficace, tant en phase de conception qu'en phase de réhabilitation, permettant d'envisager le renforcement de bâtis existants ou futurs et d'assurer la sécurité des personnes et des ouvrages environnants. / Localized initial failures in constructions can sometimes be followed by disproportionate damage (collapse) spreading to the whole or the major part of a building. Since the partial and progressive collapse of the Ronnan Point tower (London, $1968$) caused by a gas explosion, the concept of robustness has been introduced in standards. Structural robustness is defined as the ability of a structure to withstand unforeseen events causing local damage like fire, explosion or impact, without suffering disproportionate collapse. This definition encourages engineers to include the concepts of initial damage (local failure) and disproportionate damage (global failure) in design procedures. The main objective of this PhD work is to develop a simulation tool in order to highlight the potential weakness in a structure when uncertain sollicitations (accidental events) and/or dimensional fault (design or realization) interfere with the standard predictions. The robustness is evaluated by an index varying from 0 (non-robust structure) to 1 (very robust structure) and is calculated from the initial and global failure probabilities. The proposed methodology is based on an event tree analysis summurizing all the distinct potential scenarios, from the initial damage to the collapse of the structure. The developed approach is applied to statically indeterminate unidimensional structures like beams and frame. The redundancy's consequence is that the break of one or several cross sections will not necessarily lead to the collapse of the whole system: the redistribution of the internal efforts allows the remaining undamaged parts of the structure to support the external (applied) loading. The methodology is illustrated by some examples of clamped-clamped beam and frame, loaded with punctual forces. The cross sections are supposed to have an elastic behaviour until the formation of plastic hinges (local failure). Two types of probabilistic laws, Gaussian and Log-normal, are tested by the developed approach and by Monte-Carlo simulations. The chosen random variables can be either independent or correlated. The resulting complete event tree contains all the exclusive paths from an localised damage to the global failure, without intersection between branches stemming from the same node. This specific property allows to evaluate the robustness indexes of the structure with the ratio between the local and global probabilities, according to each scenario. The analysis of the event tree and of the robustness indexes allows to highlight the potential brittleness which could cause a generalized collapse of the structure with respect to accidents or malicious acts. The developed methodology provides an effective tool of simulation and diagnostic, both in the design phase and in the rehabilitation one, useful to the reinforcement of existing or future buildings and to ensure the safety of people and surrounding structures.
5

Méthodes de tests et de diagnostics appliquées aux mémoires non-volatiles

Plantier, Jérémy 13 December 2012 (has links)
"L’industrie nano repousse constamment les limites de la miniaturisation. Pour les systèmes CMOS à mémoires non-volatiles, des phénomènes qui étaient négligeables autrefois sont à présent incontournables et nécessitent des modèles de plus en plus complexes pour décrire, analyser et prédire le comportement électrique de ces dispositifs.Le but de cette thèse est de répondre aux besoins de l’industriel, afin d’optimiser au mieux les performances des produits avant et après les étapes de production. Cette étude propose des solutions, comme des méthodes de test innovantes pour des technologies telles que les mémoires non-volatiles EEPROM embarquées.La première méthode proposée, consiste à extraire la densité de pièges (NiT) générée, au cours du cyclage, dans l’oxyde tunnel de cellules EEPROM, à partir d’une Macro cellule de test reprenant toutes les caractéristiques d’un produit fini. Les résultats expérimentaux sont ensuite injectés dans un modèle analytique décrivant le phénomène de SILC (Stress Induced Leakage Current) qui est le principal effet issu de ces pièges. La densité de pièges en fonction du nombre de cycles est ensuite extraite par interpolation entre les courbes expérimentales et les courbes simulées par le modèleLa seconde méthode propose une étude de corrélation statistique entre le test traditionnel de mise en rétention et le test de stress électrique aux bornes de l’oxyde tunnel, proposant des temps d’exécution bien plus courts. Cette étude se base sur les populations de cellules défaillantes à l’issue des deux tests. C’est en comparant les distributions sur ces populations qu’une loi de corrélation apparaît sur la tendance comportementale des cellules." / The nano industry constantly extends the size limits, especially for CMOS devices with embedded non-volatile memories. Each size reduction step always induces new challenges caused by phenomenon which were previously negligible. As a result, more complex models are required to describe, analyze and predict as well as possible the electrical behaviors. The main goal of this thesis is to propose solutions to the industry in term of test, to optimize the performances before and after the whole process steps. Thus, this study proposes two innovative methodologies dedicated to embedded non-volatile EEPROM memories based devices.The first of them consists in to extract the post-cycling generated tunnel oxide traps density (NiT), directly from a macro cell. The experimental results are then used to be compared with an analytical model calculation which perfectly describes the Stress Induced Current phenomena (SILC). This electrical current directly comes from the generated traps inside the cells tunnel oxide. An interpolation is then done between the model and the experimental resulting curves, to extract the tunnel oxide traps density.The second study proposes a method of statistical correlation between the traditional retention test and testing of electrical stress across the tunnel oxide which has shorter execution time. This study is based on cell populations after failing both tests. By comparing the distributions of these populations a correlation law appears between the cells behavioral tendencies. Following this study the replacement of long retention tests by shorter electrical stress tests may be considered.
6

Conception d’environnement instrumenté pour la veille à la personne / Design of instrumented environment for human monitoring

Massein, Aurélien 22 November 2018 (has links)
L'instrumentation permet à notre environnement, maison ou bâtiment, de devenir intelligent en s'adaptant à nos modes de vie et en nous assistant au quotidien. Un environnement intelligent est sensible et réactif à nos activités, afin d'améliorer notre qualité de vie. La fiabilité d'identification des activités est ainsi essentielle pour cette intelligence ambiante : elle est directement dépendante du positionnement des capteurs au sein de l'environnement. Cette question essentielle du placement des capteurs est très peu considérée par les systèmes ambiants commercialisés ou même dans la littérature. Pourtant, elle est la source principale de leurs dysfonctionnements où une mauvaise reconnaissance des activités entraîne une mauvaise assistance fournie. Le placement de capteurs consiste à choisir et à positionner des capteurs pertinents pour une identification fiable des activités. Dans cette thèse, nous développons et détaillons une méthodologie de placement de capteurs axée sur l'identifiabilité des activités d'intérêt. Nous la qualifions en nous intéressant à deux évaluations différentes : la couverture des intérêts et l'incertitude de mesures. Dans un premier temps, nous proposons un modèle de l'activité où nous décomposons l'activité en actions caractérisées afin d'être indépendant de toute technologie ambiante (axée connaissances ou données). Nous représentons actions et capteurs par un modèle ensembliste unifiant, permettant de fusionner des informations homogènes de capteurs hétérogènes. Nous en évaluons l'identifiabilité des actions d'intérêt au regard des capteurs placés, par des notions de précision (performance d'identification) et de sensibilité (couverture des actions). Notre algorithme de placement des capteurs utilise la Pareto-optimalité pour proposer une large palette de placements-solutions pertinents et variés, pour ces multiples identifiabilités à maximiser. Nous illustrons notre méthodologie et notre évaluation en utilisant des capteurs de présence, et en choisissant optimalement la caractéristique à couvrir pour chaque action. Dans un deuxième temps, nous nous intéressons à la planification optimale des expériences où l'analyse de la matrice d'information permet de quantifier l'influence des sources d'incertitudes sur l'identification d'une caractéristique d'action. Nous représentons les capteurs continus et l'action caractérisée par un modèle analytique, et montrons que certaines incertitudes doivent être prises en compte et intégrées dans une nouvelle matrice d'information. Nous y appliquons les indices d'observabilité directement pour évaluer l'identifiabilité d'une action caractérisée (incertitude d'identification). Nous illustrons cette évaluation alternative en utilisant des capteurs d'angle, et nous la comparons à la matrice d'information classique. Nous discutons des deux évaluations abordées et de leur complémentarité pour la conception d’environnement instrumenté pour la veille à la personne. / Instrumentation enables our environment, house or building, to get smart through self-adjustment to our lifestyles and through assistance of our daily-life. A smart environment is sensitive and responsive to our activities, in order to improve our quality of life. Reliability of activities' identification is absolutely necessary to such ambient intelligence: it depends directly on sensors' positioning within the environment. This fundamental issue of sensor placement is hardly considered by marketed ambient systems or even into the literature. Yet, it is the main source of ambient systems' malfunctions and failures, because a bad activity recognition leads to a bad delivered assistance. Sensor placement is about choosing and positioning relevant sensors for a reliable identification of activities. In this thesis, we develop and detail a sensor placement methodology driven by identifiability of activities of interest. We quantify it by looking at two different evaluations: coverage of interests and uncertainty of measures. First, we present an activity model that decomposes each activity into characterised actions to be technology-free (either knowledge or data driven one). We depict actions and sensors by a set theoretic model, enabling to fuse homogeneous informations of heterogeneous sensors. We then evaluate each action of interest's identifiability regarding placed sensors, through notions of precision (identification's performance) and sensitivity (action's coverage). Our sensor placement algorithm use Pareto-optimality to offer a wide range of relevant solution-placements, for these multiple identifiabilities to maximise. We showcase our methodology and our evaluation through solving a problem featuring motion and binary sensors, by optimally choosing for each action the characteristic to cover. Finally, we look into optimal design of experiments by analysing the information matrix to quantify how sources of uncertainties influence the identification of an action's characteristic. We depict continuous sensors and the characterised action by an analytical model, and we show that some uncertainties should be considered and included in a new information matrix. We then apply directly observability indexes to evaluate identifiability of a characterised action (uncertainty of identification), and compare our new information matrix to the classical one. We showcase our alternate evaluation through solving a sensor placement problem featuring angular sensors. We discuss both covered evaluations and their complementarity towards the design of instrumented environment for human monitoring.
7

Modélisation des stratégies de remplacement de composant et de systèmes soumis à l'obsolescence technologique

Clavareau, Julien 12 September 2008 (has links)
Ce travail s’inscrit dans le cadre d’étude de la sûreté de fonctionnement.<p>La sûreté de fonctionnement est progressivement devenue partie intégrante de l’évaluation des performances des systèmes industriels. En effet, les pannes d’équipements, les pertes de production consécutives, et la maintenance des installations ont un impact économique majeur dans les entreprises. Il est donc essentiel pour un manager de pouvoir estimer de manière cohérente et réaliste les coûts de fonctionnement de l’entreprise, en tenant notamment compte des caractéristiques fiabilistes des équipements utilisés, ainsi que des coûts induits entre autres par le non-fonctionnement du système et la restauration des performances de ses composants après défaillance.<p><p>Le travail que nous avons réalisé dans le cadre de ce doctorat se concentre sur un aspect particulier de la sûreté de fonctionnement, à savoir les politiques de remplacement d’équipements basées sur la fiabilité des systèmes qu’ils constituent. La recherche menée part de l’observation suivante :si la littérature consacrée aux politiques de remplacement est abondante, elle repose généralement sur l’hypothèse implicite que les nouveaux équipements envisagés présentent les mêmes caractéristiques et performances que celles que possédaient initialement les composants objets du remplacement.<p>La réalité technologique est souvent bien différente de cette approche, quelle que soit la discipline industrielle envisagée. En effet, de nouveaux équipements sont régulièrement disponibles sur le marché ;ils assurent les mêmes fonctions que des composants plus anciens utilisés par une entreprise, mais présentent de meilleures performances, par exemple en termes de taux de défaillance, consommation d’énergie, " intelligence " (aptitude à transmettre des informations sur leur état de détérioration).<p>De plus, il peut devenir de plus en plus difficile de se procurer des composants de l’ancienne génération pour remplacer ceux qui ont été déclassés. Cette situation est généralement appelée obsolescence technologique.<p><p>Le but de ce travail est de prolonger et d’approfondir, dans le cadre de la sûreté de fonctionnement, les réflexions engagées par les différents articles présentés dans la section état de l’art afin de définir et de modéliser des stratégies de remplacements d’équipements soumis à obsolescence technologique. Il s’agira de proposer un modèle, faisant le lien entre les approches plus économiques et celles plus fiabilistes, permettant de définir et d’évaluer l’efficacité, au sens large, des différentes stratégies de remplacement des unités obsolètes. L’efficacité d’une stratégie peut se mesurer par rapport à plusieurs critères parfois contradictoires. Parmi ceux-ci citons, évidemment, le coût total moyen engendré par la stratégie de remplacement, seul critère considéré dans les articles cités au chapitre 2, mais aussi la façon dont ces coûts sont répartis au cours du temps tout au long de la stratégie, la variabilité de ces coûts autour de leur moyenne, le fait de remplir certaines conditions comme par exemple d’avoir remplacé toutes les unités d’une génération par des unités d’une autre génération avant une date donnée ou de respecter certaines contraintes sur les temps de remplacement.<p><p>Pour arriver à évaluer les différentes stratégies, la première étape sera de définir un modèle réaliste des performances des unités considérées, et en particulier de leur loi de probabilité de défaillance. Etant donné le lien direct entre la probabilité de défaillance d’un équipement et la politique de maintenance qui lui est appliquée, notamment la fréquence des maintenances préventives, leur effet, l’effet des réparations après défaillance ou les critères de remplacement de l’équipement, un modèle complet devra considérer la description mathématique des effets des interventions effectuées sur les équipements. On verra que la volonté de décrire correctement les effets des interventions nous a amené à proposer une extension des modèles d’âge effectif habituellement utilisés dans la littérature.<p>Une fois le modèle interne des unités défini, nous développerons le modèle de remplacement des équipements obsolètes proprement dit. <p><p>Nous appuyant sur la notion de stratégie K proposée dans de précédents travaux, nous verrons comment adapter cette stratégie K à un modèle pour lequel les temps d’intervention ne sont pas négligeables et le nombre d’équipes limité. Nous verrons aussi comment tenir compte dans le cadre de cette stratégie K d’une part des contraintes de gestion d’un budget demandant en général de répartir les coûts au cours du temps et d’autre part de la volonté de passer d’une génération d’unités à l’autre en un temps limité, ces deux conditions pouvant être contradictoires.<p>Un autre problème auquel on est confronté quand on parle de l’obsolescence technologique est le modèle d’obsolescence à adopter. La manière dont on va gérer le risque d’obsolescence dépendra fortement de la manière dont on pense que les technologies vont évoluer et en particulier du rythme de cette évolution. Selon que l’on considère que le temps probable d’apparition d’une nouvelle génération est inférieur au temps de vie des composants ou supérieur à son temps de vie les solutions envisagées vont être différentes. Lors de deux applications numériques spécifiques.<p><p>Nous verrons au chapitre 12 comment envisager le problème lorsque l’intervalle de temps entre les différentes générations successives est largement inférieur à la durée de vie des équipements et au chapitre 13 comment traiter le problème lorsque le délai entre deux générations est de l’ordre de grandeur de la durée de vie des équipements considérés.<p><p>Le texte est structuré de la manière suivante :Après une première partie permettant de situer le contexte dans lequel s’inscrit ce travail, la deuxième partie décrit le modèle interne des unités tel que nous l’avons utilisé dans les différentes applications. La troisième partie reprend la description des stratégies de remplacement et des différentes applications traitées. La dernière partie permet de conclure par quelques commentaires sur les résultats obtenus et de discuter des perspectives de recherche dans le domaine.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.1068 seconds