Spelling suggestions: "subject:"défaillance""
11 |
Fiabilité des LED : mécanismes et modélisation / LED Reliability : mechanisms and modelingHamon, Benoit 17 October 2014 (has links)
Ces dernières années, les diodes électroluminescentes (ou LED) blanches ont connu une forte augmentation de leurs performances ainsi qu'une baisse de coût, faisant de cette technologie la source d'éclairage incontournable des années à venir. Tout comme leur faible consommation en énergie, leur forte durée de vie est un argument de poids pour leur adoption massive dans les solutions d'éclairage. Cependant, cette même durée de vie est l'un des paramètres qui rend l'évaluation de leur fiabilité longue et coûteuse. La multitude de produits proposés, tant au niveau de la puce que du packaging, multiplie les mécanismes de défaillance potentiels et rend donc les études de fiabilité plus difficiles. Ce travail de thèse se concentre l'étude de la fiabilité de ces composants dans son ensemble, depuis les défaillances précoces jusqu'aux défaillances de fin de vie. Dans un premier temps, nous verrons que la mise en place d'un nouveau test de qualification en fin de chaîne de production a permis la caractérisation ainsi que l'amélioration de la détection des défaillances précoces. Le suivi croisé de caractéristiques optiques et électriques au cours de tests accélérés en température et en courant a permis, dans un second temps, d'étudier les défauts aléatoires et les défauts de fin de vie des échantillons. Les résultats statistiques de cette étude ont abouti à la mise en place d'un modèle de variations électro-optiques, permettant une prédiction de la durée de vie plus précise que l'état de l'art actuel. Finalement, l'analyse des échantillons présentant une défaillance durant les tests accélérés a permis la mise en évidence des mécanismes de dégradation majoritairement responsables de la dégradation des échantillons étudiés. Les résultats obtenus permettent une meilleure compréhension de la fiabilité des LED au travers de la modélisation de leur comportement dans le temps et de l'identification de leurs principaux mécanismes de défaillance. La fiabilité des produits étant un élément différenciateur critique, ce travail de thèse est particulièrement utile pour l'industrie des LED. / In the past years, white light emitting diodes (LEDs) have faced an increase of their performances combined with a decrease of their cost. In the present situation, LEDs are considered to be the light source of the future. As well as their low energy consumption, their long lifetime is one argument for a massive adoption of this technology. However, due to their long lifetime and the multitude of existing failure mechanisms (at die and package levels), the study of their reliability still remains challenging. This thesis proposes a wild range study of LED reliability, from early life failures to end of life failures. First, a new qualification test has been implemented in production to characterize and detect early failures of LED. Second, the cross study of electrical and optical variations during accelerated lifetime has been conducted. Results allowed modeling those variations and using this model for more precise lifetime estimations. Finally, failure analyses of aged samples have been conducted highlighting the failures mechanisms responsible for the measured degradations. The obtain results allow a better understanding of LED reliability through the modeling of their behavior during time and the analysis of the most critical failure mechanisms. Because lighting device reliability is a key factor, these results are useful for the LED industry.
|
12 |
Risk-based maintenance of critical and complex systemsJamshidi, Afshin 07 May 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2016-2017. / De nos jours, la plupart des systèmes dans divers secteurs critiques tels que l'aviation, le pétrole et les soins de santé sont devenus très complexes et dynamiques, et par conséquent peuvent à tout moment s'arrêter de fonctionner. Pour éviter que cela ne se reproduise et ne devienne incontrôlable ce qui engagera des pertes énormes en matière de coûts et d'indisponibilité; l'adoption de stratégies de contrôle et de maintenance s'avèrent plus que nécessaire et même vitale. Dans le génie des procédés, les stratégies optimales de maintenance pour ces systèmes pourraient avoir un impact significatif sur la réduction des coûts et sur les temps d'arrêt, sur la maximisation de la fiabilité et de la productivité, sur l'amélioration de la qualité et enfin pour atteindre les objectifs souhaités des compagnies. En outre, les risques et les incertitudes associés à ces systèmes sont souvent composés de plusieurs relations de cause à effet de façon extrêmement complexe. Cela pourrait mener à une augmentation du nombre de défaillances de ces systèmes. Par conséquent, un outil d'analyse de défaillance avancée est nécessaire pour considérer les interactions complexes de défaillance des composants dans les différentes phases du cycle de vie du produit pour assurer les niveaux élevés de sécurité et de fiabilité. Dans cette thèse, on aborde dans un premier temps les lacunes des méthodes d'analyse des risques/échec et celles qui permettent la sélection d'une classe de stratégie de maintenance à adopter. Nous développons ensuite des approches globales pour la maintenance et l'analyse du processus de défaillance fondée sur les risques des systèmes et machines complexes connus pour être utilisées dans toutes les industries. Les recherches menées pour la concrétisation de cette thèse ont donné lieu à douze contributions importantes qui se résument comme suit: Dans la première contribution, on aborde les insuffisances des méthodes en cours de sélection de la stratégie de maintenance et on développe un cadre fondé sur les risques en utilisant des méthodes dites du processus de hiérarchie analytique (Analytical Hierarchy Process (AHP), de cartes cognitives floues (Fuzzy Cognitive Maps (FCM)), et la théorie des ensembles flous (Fuzzy Soft Sets (FSS)) pour sélectionner la meilleure politique de maintenance tout en considérant les incertitudes. La deuxième contribution aborde les insuffisances de la méthode de l'analyse des modes de défaillance, de leurs effets et de leur criticité (AMDEC) et son amélioration en utilisant un modèle AMDEC basée sur les FCM. Les contributions 3 et 4, proposent deux outils de modélisation dynamique des risques et d'évaluation à l'aide de la FCM pour faire face aux risques de l'externalisation de la maintenance et des réseaux de collaboration. Ensuite, on étend les outils développés et nous proposons un outil d'aide à la décision avancée pour prédire l'impact de chaque risque sur les autres risques ou sur la performance du système en utilisant la FCM (contribution 5). / Dans la sixième contribution, on aborde les risques associés à la maintenance dans le cadre des ERP (Enterprise Resource Planning (ERP)) et on propose une autre approche intégrée basée sur la méthode AMDEC floue pour la priorisation des risques. Dans les contributions 7, 8, 9 et 10, on effectue une revue de la littérature concernant la maintenance basée sur les risques des dispositifs médicaux, puisque ces appareils sont devenus très complexes et sophistiqués et l'application de modèles de maintenance et d'optimisation pour eux est assez nouvelle. Ensuite, on développe trois cadres intégrés pour la planification de la maintenance et le remplacement de dispositifs médicaux axée sur les risques. Outre les contributions ci-dessus, et comme étude de cas, nous avons réalisé un projet intitulé “Mise à jour de guide de pratique clinique (GPC) qui est un cadre axé sur les priorités pour la mise à jour des guides de pratique cliniques existantes” au centre interdisciplinaire de recherche en réadaptation et intégration sociale du Québec (CIRRIS). Nos travaux au sein du CIRRIS ont amené à deux importantes contributions. Dans ces deux contributions (11e et 12e) nous avons effectué un examen systématique de la littérature pour identifier les critères potentiels de mise à jour des GPCs. Nous avons validé et pondéré les critères identifiés par un sondage international. Puis, sur la base des résultats de la onzième contribution, nous avons développé un cadre global axé sur les priorités pour les GPCs. Ceci est la première fois qu'une telle méthode quantitative a été proposée dans la littérature des guides de pratiques cliniques. L'évaluation et la priorisation des GPCs existants sur la base des critères validés peuvent favoriser l'acheminement des ressources limitées dans la mise à jour de GPCs qui sont les plus sensibles au changement, améliorant ainsi la qualité et la fiabilité des décisions de santé. / Today, most systems in various critical sectors such as aviation, oil and health care have become very complex and dynamic, and consequently can at any time stop working. To prevent this from reoccurring and getting out of control which incur huge losses in terms of costs and downtime; the adoption of control and maintenance strategies are more than necessary and even vital. In process engineering, optimal maintenance strategies for these systems could have a significant impact on reducing costs and downtime, maximizing reliability and productivity, improving the quality and finally achieving the desired objectives of the companies. In addition, the risks and uncertainties associated with these systems are often composed of several extremely complex cause and effect relationships. This could lead to an increase in the number of failures of such systems. Therefore, an advanced failure analysis tool is needed to consider the complex interactions of components’ failures in the different phases of the product life cycle to ensure high levels of safety and reliability. In this thesis, we address the shortcomings of current failure/risk analysis and maintenance policy selection methods in the literature. Then, we develop comprehensive approaches to maintenance and failure analysis process based on the risks of complex systems and equipment which are applicable in all industries. The research conducted for the realization of this thesis has resulted in twelve important contributions, as follows: In the first contribution, we address the shortcomings of the current methods in selecting the optimum maintenance strategy and develop an integrated risk-based framework using Analytical Hierarchy Process (AHP), fuzzy Cognitive Maps (FCM), and fuzzy Soft set (FSS) tools to select the best maintenance policy by considering the uncertainties. / The second contribution aims to address the shortcomings of traditional failure mode and effect analysis (FMEA) method and enhance it using a FCM-based FMEA model. Contributions 3 and 4, present two dynamic risk modeling and assessment tools using FCM for dealing with risks of outsourcing maintenance and collaborative networks. Then, we extend the developed tools and propose an advanced decision support tool for predicting the impact of each risk on the other risks or on the performance of system using FCM (contribution 5). In the sixth contribution, we address the associated risks in Enterprise Resource Planning (ERP) maintenance and we propose another integrated approach using fuzzy FMEA method for prioritizing the risks. In the contributions 7, 8, 9, and 10, we perform a literature review regarding the risk-based maintenance of medical devices, since these devices have become very complex and sophisticated and the application of maintenance and optimization models to them is fairly new. Then, we develop three integrated frameworks for risk-based maintenance and replacement planning of medical devices. In addition to above contributions, as a case study, we performed a project titled “Updating Clinical Practice Guidelines; a priority-based framework for updating existing guidelines” in CIRRIS which led to the two important contributions. In these two contributions (11th and 12th) we first performed a systematic literature review to identify potential criteria in updating CPGs. We validated and weighted the identified criteria through an international survey. Then, based on the results of the eleventh contribution, we developed a comprehensive priority-based framework for updating CPGs based on the approaches that we had already developed and applied success fully in other industries. This is the first time that such a quantitative method has been proposed in the literature of guidelines. Evaluation and prioritization of existing CPGs based on the validated criteria can promote channelling limited resources into updating CPGs that are most sensitive to change, thus improving the quality and reliability of healthcare decisions made based on current CPGs. Keywords: Risk-based maintenance, Maintenance strategy selection, FMEA, FCM, Medical devices, Clinical practice guidelines.
|
13 |
Traitement d'images en analyse de défaillances de circuits intégrés par faisceau d'électronsConard, Dider 11 February 1991 (has links) (PDF)
Cette thèse présente l'étude et la réalisation d'un système automatique et intégré d'analyse de défaillances de circuits VLSI par faisceau d'électrons. Le principe d'analyse consiste a comparer les images représentant en contraste de potentiel le fonctionnement interne du circuit défaillant a celles d'un circuit de référence. L'application de cette technique de test a des circuits dont la structure détaillée est inconnue, a nécessité le développement d'un outil automatique permettant d'extraire les différences de contraste sur la totalité du circuit. L'automatisation s'est heurtée aux problèmes d'alignement entre les images a comparer. Une technique de reconnaissance des formes, basée sur la détection des coins, a été mise en œuvre pour s'affranchir de ces problèmes. Ces travaux ont été valides par une étude expérimentale menée sur des microprocesseurs 68000
|
14 |
Analyse de défaillances de circuits VLSI par testeur à faisceau d'électronsSavart, Denis 27 June 1990 (has links) (PDF)
Cette thèse concerne l'analyse de défaillances de circuits VLSI et plus particulièrement la localisation automatique de défauts sur des circuits a structure non connue a l'aide d'un testeur par faisceau d'électrons. La première partie décrit le problème du point de vue de l'analyste et conclut sur la nécessité de l'emploi des techniques de test sans contact et plus particulièrement du testeur par faisceau d'électrons. La seconde partie décrit la methode employée pour localiser une défaillance au sein d'un circuit intégré, fondée sur la comparaison de l'image en contraste de potentiel du circuit défaillant avec l'image d'un circuit identique réputé bon. Les problèmes lies a l'automatisation complète de la phase de comparaison sont ensuite détaillés et des solutions sont apportées. Les algorithmes de traitement des images sont décrits en détail; certains ayant été spécialement développés pour la nature spécifique des images de circuits intégrés (binarisation et corrélation par recherche des coins). La troisième partie décrit les deux phases expérimentales effectuées sur deux équipements différents et permet de montrer la faisabilité de la methode de comparaison et surtout la fiabilité du processus automatique. La dernière partie conclut par la nécessité de développer les applications informatisées autour de l'outil testeur par faisceau d'électrons
|
15 |
Mise au point d'algorithmes répartis dans un environnement fortement variable, et expérimentation dans le contexte des pico-réseauxMarchand, Corine 20 December 2004 (has links) (PDF)
L'évolution technique des "objets communicants" tels que les ordinateurs portables, les assistants personnels, etc..., confirme l'intérêt porté aux technologies "sans fil". Le développement rapide des protocoles de communication sans fil (Bluetooth, WIFI, ...) a permis la généralisation de nouveaux "réseaux locaux ad-hoc" principalement caractérisés par leur topologie dynamique et l'hétérogénéité de leurs composants. Aussi, les infrastructures logicielles reposant sur de tels environnements doivent pouvoir s'adapter et gérer cette dynamicité (connexions/déconnexions fréquentes ainsi que la forte variabilité des communications. Dans ce contexte, l'objectif général est de concevoir des algorithmes permettant de maintenir la cohérence d'un groupe d'entités hétérogènes partageant des services sur des architectures fortement instables. La problématique concerne donc la prise de décision en environnement distribué en considérant les particularités du réseau sous-jacent. Dans cette thèse, nous proposons une méthodologie d'approche concernant la caractérisation des performances envisageables dans un environnement totalement distribué s'appuyant sur un protocole de communication sans fil. Cette approche consiste également en l'identification des différentes perturbations susceptibles d'interférer dans le bon déroulement des applications. Par ailleurs, un algorithme de consensus adapté aux spécificités de l'environnement et basé sur un principe d'interaction avec un mécanisme de détection de défaillances a été développé et implanté. Afin de valider cette approche algorithmique, diverses expérimentations et évaluations qualitatives et quantitatives ont été réalisées.
|
16 |
Identification de sommets dans les graphesMoncel, Julien 03 July 2012 (has links) (PDF)
Les travaux présentés dans ce document traitent des codes identifiants dans les graphes. Cette notion, introduite à la fin des années 1990, modélise des problèmes de détection de défaillance dans les réseaux. Un code identifiant peut être vu comme une variante du problème de domination, avec une contrainte supplémentaire d'identification des sommets. La recherche de la cardinalité minimum d'un tel code est un problème NP-difficile. Les résultats obtenus sont regroupés en quatre grands thèmes. Le premier thème concerne les structures régulières (grilles, cycles, hypercubes, produits de cliques, graphes de Sierpiński), pour lesquels des résultats sur la cardinalité minimum d'un code sont présentés (bornes et valeurs exactes). Ensuite, les aspects algorithmiques sont développés, que ce soit au sujet de la recherche d'algorithmes polynomiaux pour des classes de graphes particulières (arbres, fasciagraphes) ou concernant l'approximabilité du problème. Quelques questions structurelles sont ensuite discutées, notamment la construction de graphes extrémaux pour le problème, la construction de familles de graphes admettant un code identifiant de faible cardinalité, et la structure (degrés, sous-graphes, etc.) des graphes admettant un tel code. Enfin, une nouvelle variante de ces codes est présentée, les codes identifiants adaptatifs. Cette variante permet de modéliser une situation où nous pouvons tirer parti de l'aspect dynamique du problème, et espérer interroger un nombre de sommets bien moins grand que dans le cas statique. Nous explicitons en particulier dans ce document les liens qu'entretiennent les codes identifiants avec d'autres types de structures, tels les ensembles dominants, les codes superposés, les plans projectifs, ou les jeux de Rényi.
|
17 |
Techniques de gestion des défaillances dans les grilles informatiques tolérantes aux fautesNdiaye, Ndeye Massata 17 September 2013 (has links) (PDF)
La construction des grilles informatiques est un des axes de recherche majeurs sur les systèmes informatiques en réseau. L'objectif principal de la construction d'une grille informatique, c'est de fournir les concepts et composant logiciels système adéquats pour agréger les ressources informatiques (processeurs, mémoires, et aussi réseau) au sein d'une grille de traitements informatiques, pour en faire (à terme) une infrastructure informatique globale de simulations, traitement de données ou contrôle de procédés industriels. Cette infrastructure est potentiellement utilisable dans tous les domaines de recherche scientifique, dans la recherche industrielle et les activités opérationnelles (nouveaux procédés et produits, instrumentation, etc.), dans l'évolution des systèmes d'information, du Web et du multimédia. Les grilles de qualité production supposent une maitrise des problèmes de fiabilité, de sécurité renforcé par un meilleur contrôle des accès et une meilleur protection contre les attaques, de tolérance aux défaillances ou de prévention des défaillances, toutes ces propriétés devant conduire à des infrastructure de grille informatique sûres de fonctionnement. Dans cette thèse on propose de poursuivre des recherches sur les problèmes de gestion automatisée des défaillances, l'objectif principal étant de masquer le mieux possible ces défaillances, à la limite les rendre transparents aux applications, de façon à ce que, du point de vue des applications, l'infrastructure de grille fonctionne de façon quasi-continue. Nous avons conçu un nouvel algorithme hiérarchique auto-adaptatif pour assurer la tolérance aux fautes dans les grilles informatiques. Ce protocole s'appuie sur l'architecture hiérarchique des grilles informatiques. Dans chaque cluster, nous avons défini un coordonnateur appelé processus leader, dont le rôle consiste à coordonner les échanges intra-cluster et à assurer le rôle d'intermédiaire entre les processus appartenant à des clusters différents. Pour sauvegarder les états des processus inter-cluster, le protocole adaptatif utilise le mécanisme de journalisation pessimiste basé sur l'émetteur. A l'intérieur du cluster, le protocole exécuté dépend de la fréquence des messages. A partir d'un seuil de fréquence maximale déterminée en fonction de la densité des communications, c'est le protocole de point de reprise coordonné non bloquant qui sera utilisé, tandis que si le nombre de messages dans le cluster est faible, les messages sont sauvegardés avec la journalisation pessimiste.
|
18 |
Dégradation par électromigration dans les interconnexions en cuivre : étude des facteurs d'amélioration des durées de vie et analyse des défaillances précoces / Electromigration degradation in copper interconnects : study of lifetimes improvement factors and early failures analysisBana, Franck Lionel 22 November 2013 (has links)
Les circuits intégrés sont partie prenante de tous les secteurs industriels et de la vie couranteactuels. Leurs dimensions sont sans cesse réduites afin d’accroître leurs performances. Cetteminiaturisation s’accompagne notamment d’une densification et d’une complexification du réseaud’interconnexions. Les interconnexions, lignes métalliques chargées de transporter le signalélectrique dans les circuits apparaissent ainsi plus sensibles à la dégradation par électromigration.Ceci, compte tenu des fortes densités de courant qu’elles transportent. Il se trouve donc dans lesnoeuds technologiques avancés, de plus en plus difficile de garantir le niveau de fiabilité requis pourles interconnexions.La réduction de la durée de vie des interconnexions est liée à la fois à la difficulté croissanteà réaliser les étapes de procédés pour les géométries souhaitées et à l’augmentation de la dispersiondes temps à la défaillance. Dans un premier temps, nous avons poussé la compréhension desmécanismes en jeu lors de la dégradation par électromigration. Nous avons ainsi mis en évidence lerôle joué par la microstructure et la composition chimique des lignes de cuivre dans l’augmentationde leur durée de vie. Dans un second volet, l’accent a été porté sur l’amélioration de l’analysestatistique des durées de vie avec un focus sur les défaillances précoces et les distributionsbimodales qu’elles engendrent. De même, la structure multi liens que nous avons mise au pointpermet de répondre à la question fondamentale de l’augmentation de l’échantillonnage de test ;améliorant ainsi la précision aux faibles taux de défaillance pour des projections robustes des duréesde vie. / Integrated circuits are part of our nowadays life as they are presents everywhere; as well as in daily life or industry. They are continuously downscaled to increase their performances. As a result, this downscaling lead to complex interconnects grid architectures. Interconnects which are metal lines carrying electric signal in the circuit are thus more and more sensitive to electromigration failure. This I because of increasingly higher current densities they carry. Obviously, in advanced technology nodes, it is more and more difficult to ensure the reliability level required for interconnects. Interconnects lifetime reduction is linked to increasing difficulty to perform all process steps with these very small features and also to increasing failure times dispersion. In the first part of the work presented here, we deepened the understanding of mechanisms involved during electromigration degradation. We have thus shown the fundamental role played by the microstructure and the chemical composition of the line in increasing its lifetime. The second part of the work dealt with the improvement of statistical analysis of failure times. We thus focused on early failures and the bimodal failure times distributions they generate. As far as that goes, the multilink structure we have designed answers the fundamental question of increase test sampling. This lead then to improved precision at very low failure rates for robust lifetime's extrapolation to use conditions.
|
19 |
Les défaillances bancaires / Bank FailuresHascoët, Damien 06 November 2018 (has links)
En 1850, la banque Lehman Brothers est créée. Cette institution est considérée comme l’une des banques les plus prestigieuses du secteur bancaire international jusqu’au 15 septembre 2008. De cette faillite, les uns se souviennent d’une comparaison avec le jeudi noir de 1929, les autres analysent les causes d’une défaillance systémique des établissements bancaires. Les crises bancaires sont des phénomènes économiques récurrents. Elles entrainent des vagues de licenciements, la perte d’une épargne, le retrait des investisseurs, le frein du développement des économies nationales.Gérer le risque de défaillance bancaire oblige à connaître les acteurs et le fonctionnement du système bancaire. A travers un prisme volontairement historique, le développement de la norme supervisant ce secteur économique est mis en évidence. Sans solution de prévention contre les faillites, la quête est vaine. Pour ce faire, la puissance publique contraint les établissements bancaires à adapter leurs structures aux opérations spéculatives et à se doter de fonds propres. Parallèlement, des solutions doivent limiter les conflits d’intérêts issus des rémunérations du risque financier et de l’interdépendance des banques et des agences de notation. Sans prévention des risques, un traitement proportionné est la seule solution aux défaillances. Cette finalité laisse supposer l’application d’une norme relevant du droit commun. En effet, une banque en faillite peut être liquidée. Néanmoins, les enjeux financiers et l’internationalisation des relations interbancaires contraignent les Etats à développer un traitement de résolution unique. Dérogeant aux normes de droit commun, le traitement des défaillances résulte de procédures extra-judiciaires spéciales. Elles mettent en place des dispositifs efficaces rétablissant la viabilité de l’entité économique, conservant la stabilité du système bancaire et garantissant l’épargne des clients. Cette analyse des défaillances bancaires menée par l’auteur vise à considérer un phénomène économique juridiquement encadré par un droit autonome et éviter la survenance du risque de défaut. / In 1850, Lehman Brothers was created. This institution is considered as one of the most prestigious banks of the international banking sector until September 15, 2008. Some people compared this bankruptcy with the Black Thursday of 1929 whereas the others analyse the causes of a bank institutions systemic failure. Bank crisis is a recurrent economic phenomenon. It leads to waves of redundancies, loss of savings, withdrawal of investors, and brake of national economies development.Managing the risk of a bank failure requires the knowledge of the players and the bank system functioning. Through a deliberate historical prism, the development of the standard overseeing this economic sector is highlighted. Without a solution of prevention against bankruptcy, the quest is futile. To do this, the public authorities force banks to adapt their structures to protect themselves from speculative operations and to acquire their own funds. At the same time, some solutions are to take into account to limit conflicts of interest arising from the financial risk remuneration and the interdependence of banks and rating agencies. In the absence of risk prevention, a treatment in proportion is the only solution to failures. This purpose suggests the application of a standard under common law. Indeed, a bankruptcy leads to liquidation. Nevertheless, the financial stakes and the internationalization of the interbank relations force the States to develop a single resolution treatment. In going against the ordinary law rules common law norms, the treatment of the bank failures results from special extra-judicial procedures. These procedures put in place effective mechanisms that restore the viability of the economic entity and contribute to maintain the stability of the bank system and to guarantee the savings of customers. This analysis of bank failures led by the author aims to consider an economic phenomenon legally governed by an autonomous law and to avoid the occurrence of the payment default risk.
|
20 |
Contribution de l'approche contrainte/résistance à l'évaluation de la fiabilité des structuresBereriche, Youcef 16 April 2018 (has links)
Dans ce mémoire, on traite des méthodes et d'outils d'évaluation de la fiabilité des systèmes mécanique. La fiabilité dans ce contexte est définie comme étant la probabilité que la résistance soit supérieure à la sollicitation que le système subit. On considère que la résistance est aléatoire et que l'occurrence et l'intensité de la sollicitation sont aléatoires. Les outils d'analyse et d'évaluation de la fiabilité, retenus dans ce travail, permettent d'évaluer et d'optimiser les performances d'un système existant ou d'intégrer le caractère aléatoire de sollicitation et de la résistance, en phase de conception. Des exemples d'applications issus des domaines du génie mécanique et de la sécurité des structures sont rapportés dans ce mémoire pour illustrer les différents concepts théoriques. Le contenu de ce mémoire a été conçu et structuré de manière à servir de document de référence pour la conception et l'exploitation de systèmes assujettis à des sollicitations dont l'intensité et l'occurrence sont aléatoires et dont la résistance se dégrade, aléatoirement également, selon l'âge et l'usage du système.
|
Page generated in 0.0736 seconds