• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Optimisation de la fiabilité des structures contrôlées / Reliability optimization of controlled structures

Mrabet, Elyes 08 April 2016 (has links)
Le présent travail traite l’optimisation des paramètres des amortisseurs à masses accordées (AMA) accrochés sur des structures, linéaires. Les AMAs sont des dispositifs de contrôle passif utilisés pour atténuer les vibrations induites par des chargements dynamiques (en particulier stochastiques) appliqués sur des structures. L’efficacité de tels dispositifs est étroitement liée aux caractéristiques dynamiques qu’on doit imposer à ces systèmes. Dans ce cadre, plusieurs stratégies d’optimisation peuvent être utilisées dans des contextes déterministes et non déterministes, où les paramètres de la structure à contrôler sont incertains. Parmi les différentes approches qu’on peut trouver dans la littérature, l’optimisation structurale stochastique (OSS) et l’optimisation basée sur la fiabilité (OBF) étaient particulièrement traitées dans le présent travail.Dans la première partie de ce travail, en plus de la nature stochastique des chargements extérieurs appliqués à la structure linéaire à contrôler, la présence de paramètres structuraux de type incertains mais bornés (IMB) est prise en considération et les bornes optimales des paramètres AMA ont été calculées. Le calcul de ces bornes a été fait en utilisant une technique basée sur un développement de Taylor suivi d’une extension aux intervalles. La technique, permettant l’obtention d’une approximation des bornes optimales, a été appliquée dans les cas d’un système à un degré de liberté (1DDL) et un autre à plusieurs degrés de libertés (nDDL). Les résultats obtenus ont montrés que la technique utilisée était bien adaptée pour la stratégie OSS et elle l’est moins pour l’approche OBF.Comme suite logique aux résultats de la première partie, la seconde partie de la présente dissertation est consacrée à la présentation de deux méthodes permettant l’obtention des bornes exactes et des bornes approximées des paramètres optimaux de l’AMA et ce, en présence de paramètres structuraux de type IMB. La première méthode est celle de la boucle d’optimisation continue imbriquée, la seconde est celle des extensions aux intervalles basées sur la monotonie. Les méthodes présentées, qui ont été appliquées avec l’approche OBF, sont valables pour n’importe quel problème d’optimisation faisant intervenir des paramètres de type IMB. Mis à part le calcul de bornes optimisées du dispositif AMA, la question de la robustesse, vis-à-vis des incertitudes structurales, a été également traitée et il a été prouvé que la solution optimale correspondante au contexte déterministe était la plus robuste.L’introduction d’une nouvelle stratégie OBF des paramètres AMA a fait l’objet de la troisième partie de cette dissertation. En effet, un problème OBF est toujours relié à un mode de défaillance caractérisé par le franchissement d’une certaine réponse, de la structure à contrôler, d’un certain seuil limite pendant une certaine durée de temps. Le nouveau mode de défaillance, correspondant à la nouvelle stratégie OBF, consiste à considérer qu’une défaillance ait lieu lorsque la puissance dissipée au niveau de la structure à contrôler, pendant une période de temps, excède une certaine valeur. Faisant intervenir l’approche par franchissement ainsi que la formule de Rice, la nouvelle stratégie a été appliquée dans le cas d’un système 1DDL et l’expression exacte de la probabilité de défaillance est calculée. En se basant sur une approximation mettant en œuvre la technique du minimum d’entropie croisé, la nouvelle stratégie a été, également, appliquée dans le cas d’un système à nDDL et les résultats obtenus ont montrés la supériorité de cette stratégie par rapports à deux autres tirées de la bibliographie. / The present work deals with the parameters optimization of tuned mass dampers (TMD) used in the control of vibrating linear structures under stochastic loadings. The performance of the TMD device is deeply affected by its parameters that should be carefully chosen. In this context, several optimization strategies can be found in the literature and among them the stochastic structural optimization (SSO) and the reliability based optimization (RBO) are particularly addressed in this dissertation.The first part of this work in dedicated to the calculation of the optimal bounds solutions of the TMD parameters in presence of uncertain but bounded (UBB) structural parameters. The bounds of the optimal TMD parameters are obtained using an approximation technique based on Taylor expansion followed by interval extension. The numerical investigations applied with one degree of freedom (1DOF) and with multi-degree of freedom (multi-DOF) systems showed that the studied technique is suitable for the SSO strategy and that it’s less appropriate for the RBO strategy.As immediate consequence of the obtained results in the first part of this work, in the second part a method, called the continuous-optimization nested loop method (CONLM), providing the exact range of the optimal TMD parameters is presented and validated. The numerical studies demonstrated that the CONLM is time consuming and to overcome this disadvantage, a second method is also presented. The second method is called the monotonicity based extension method (MBEM) with box splitting. Both methods have been applied in the context of the RBO strategy with 1DOF and multi-DOF systems. The issue of effectiveness and robustness of the presented optimum bounds of the TMD parameters is also addressed and it has been demonstrated that the optimum solution corresponding to the deterministic context (deterministic structural parameters) provide good effectiveness and robustness.Another aspect of RBO approach is dealt in the third part of the present work. Indeed, a new RBO strategy of TMD parameters based on energetic criterion is presented and validated. The new RBO approach is linked to a new failure mode characterized by the exceedance of the power dissipated into the controlled structure over a certain threshold during some interval time. Based on the outcrossing approach and the Rice’s formula, the new strategy is firstly applied to 1DOF system and exact expression of the failure probability is calculated. After that, a multi-DOF system is considered and the minimum cross entropy method has been used providing an approximation to the failure probability and then the optimization is carried out. The numerical investigations showed the superiority of the presented strategy when compared with other from the literature.
172

Modélisation markovienne en fiabilité: réduction des grands systèmes

Tombuyses, Béatrice 09 December 1994 (has links)
Le sujet de cette thèse de doctorat est l'étude de divers aspects liés à l'approche markovienne dans le cadre des études de fiabilité.<p><p>La première partie de cette thèse concerne Ia modélisation d'installations industrielles et la construction de la matrice de transition. Le but poursuivi est le développement d'un code markovien permettant une description réaliste et aisée du système. Le système est décrit en termes de composants multiétats :pompes, vannes .<p>La définition d'une série de règles types permet l'introduction de dépendances entre composants. Grâce à la modélisation standardisée du système, un algorithme permettant la construction automatique de la matrice de transition est développé. L'introduction d'opérations de maintenance ou d'information est également présentée.<p><p>La seconde partie s'intéresse aux techniques de réduction de la taille de la matrice, afin de rendre possible le traitement de grosses installations. En effet, le nombre d'états croit exponentiellement avec le nombre de composants, ce qui limite habituellement les installations analysables à une dizaine de composants. Les techniques classiques de réduction sont passées en revue :<p>accessibilité des états,<p>séparation des groupes de composants indépendants,<p>symétrie et agrégation exacte des états (cfr Papazoglou). Il faut adapter la notion de symétrie des composants en tenant compte des dépendances pouvant exister entre composants.<p><p>Une méthode d'agrégation approchée pour le calcul de la fiabilité et de la disponibilité de groupes de composants à deux états est développée.<p><p>La troisième partie de la thèse contient une approche originale pour l'utilisation de la méthode markovienne. Il s'agit du développement d'une technique de réduction basée sur le graphe d'influence des composants. Un graphe d'influence des composants est construit à partir des dépendances existant entre composants. Sur base de ce graphe, un système markovien non homogène est construit, décrivant de manière approchée le comportement du système exact. Les résultats obtenus sur divers exemples sont très bons.<p><p>Une quatrième partie de cette thèse s'intéresse aux problèmes numériques liés à l'intégration du système différentiel du problème markovien. Ces problèmes résultent principalement du caractère stiff du système. Différentes méthodes classiques sont implantées pour l'intégration du système différentiel. Elles sont testées sur un exemple type de problème de fiabilité.<p><p>Pour finir, on trouve la présentation du code CAMERA dans lequel ont été implantées les différentes techniques présentées ci-dessus.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
173

Modélisation prospective et analyse spatio-temporelle : intégration de la dynamique du réseau électrique

Drouineau, Mathilde 02 December 2011 (has links) (PDF)
La fiabilité de fourniture est une caractéristique essentielle des systèmes électriques : elle évalue leur capacité à se prémunir d'incidents d'exploitation et repose sur leurs réserves dynamiques, caractérisées par le plan de tension et la fréquence et dont les temps caractéristiques varient entre quelques millisecondes et quelques heures. Or, les exercices de prospective long terme, s'intéressant à l'évolution des systèmes énergétiques sur plusieurs décennies, ne permettent pas d'apprécier cette fiabilité de fourniture et les systèmes électriques proposés sur l'horizon prospectif peuvent alors de ne plus la garantir. Ceci d'autant plus que l'intégration massive d'énergies renouvelables pourrait se faire au détriment de la fiabilité, du fait de la complexité induite par la gestion de l'intermittence. L'enjeu de notre étude est de rendre compatible l'évaluation de la fiabilité avec la dynamique temporelle associée aux exercices prospectifs de long terme. Nous proposons une représentation agrégée des systèmes électriques élaborée à travers une description thermodynamique de l'électromagnétisme. Cette approche nous permet d'établir deux indicateurs de fiabilité relatifs aux réserves dynamiques du système électrique et donc de quantifier de façon originale le niveau de fiabilité d'un système électrique en fonction du mix de production qui lui est associé. L'intérêt des indicateurs est démontré pour l'île de La Réunion où l'étude de la fiabilité du système électrique est réalisée sur les résultats issus de l'exercice de prospective long terme avec le modèle TIMES. Ce cas d'étude illustre particulièrement bien notre problématique puisque les acteurs publics de l'île se sont fixé pour objectif un mix de la production d'électricité en 2030 issu de 100% d'énergies renouvelables. L'analyse de ce scénario, et de quelques variantes, montre que les niveaux des réserves dynamiques diminuent avec l'intégration massive d'énergies renouvelables et qu'ils sont particulièrement préoccupants pendant la journée, lorsque la production intermittente est importante. On illustre ainsi comment, grâce à la mise en œuvre de nos indicateurs, il est désormais possible de discuter les conditions dans lesquelles la fiabilité continuerait à être assurée et à quel niveau, ce qui permet d'arbitrer entre l'ambition de décarbonation du mix électrique et la qualité de fourniture attendue.
174

Couplage mécano-fiabiliste : 2 SMART - méthodologie d'apprentissage stochastique en fiabilité

Deheeger, François 28 January 2008 (has links) (PDF)
La prise en compte de l'incertain dans les analyses mécaniques est une condition indispensable pour un dimensionnement optimal et robuste des structures. Avec cet objectif les méthodes de couplage mécano-fiabiliste doivent intégrer les modélisations mécaniques de plus en plus complexes (comportement non-linéaire, dynamique, fatigue, mécanique de la rupture,...) complexité qui rend les analyses de plus en plus exigeantes en temps de calcul. La voie retenue dans la thèse consiste à substituer au modèle mécanique, un modèle approché obtenu par apprentissage statistique. La mise en oeuvre s'appuie sur la méthode des Support Vector Machines (SVM). Deux nouvelles méthodes sont proposées. SMART Support vector Margin Algorithm for Reliability es Timation permet d'élaborer de manière incrémentale une base de données optimale pour l'apprentissage de la frontière entre sûreté et défaillance. En couplant l'appprentissage avec la technique des subsets simulations, 2 SMART Subset by Support vector Margin Algorithm for Reliability es Timation prend en compte de faibles niveaux de probalité et un nombre relativement important de variables. Les travaux ont été validés sur des cas tests issus de la littérature ainsi que sur des cas mécaniques plus significatifs issus de problèmes industriels. Les résultats obtenus confirment la robustesse des méthodes proposées pour traiter les analyses de sensibilité et de fiabilité.
175

Intégration 3D haute densité : comportement et fiabilité électrique d'interconnexions métalliques réalisées par collage direct

Taibi, Mohamed 08 February 2012 (has links) (PDF)
Depuis plus de 50 ans, l'industrie de la microélectronique ne cesse d'évoluer afin de répondre à la demande d'augmentation des performances ainsi que des fonctionnalités des composants, tout en diminuant les tailles et les prix des produits. Cela est obtenu à ce jour principalement par la réduction des dimensions des composants électroniques. Cependant les dimensions actuelles des transistors atteignent une limitation physique et de nombreux effets parasites émergent. Il devient évident que dans un avenir très proche cet axe de développement ne sera plus envisageable. L'intégration tridimensionnelle apparaît alors comme une solution très prometteuse face à cette problématique de miniaturisation. Cette architecture permet la réalisation de composants plus performants tout en augmentant les fonctionnalités de ces derniers. Son concept consiste à empiler différents circuits de natures éventuellement différentes puis de les interconnecter électriquement à l'aide de connexions verticales. Le collage direct métallique permet en ce sens d'assembler mécaniquement et électriquement deux circuits l'un sur l'autre. Le but de ce travail de thèse est d'étudier le comportement électrique du procédé de collage direct métallique avant de l'intégrer dans un composant actif. On retrouve dans la première partie de ces travaux, la description du jeu de masque ainsi que les intégrations technologiques utilisées, pour réaliser les démonstrateurs 3D permettant les différentes caractérisations électriques de ces interconnexions métalliques. L'évolution de la résistance spécifique de l'interface de collage a été investiguée en fonction de la température de recuit. Puis, la fiabilité électrique de ces interconnexions a été étudiée en analysant leurs comportements face aux risques de dégradation induits par électromigration ou sous contrainte thermique. Des études physico-chimiques ont permis d'analyser les défaillances et de proposer des mécanismes. Pour finir, dans une dernière partie, les étapes technologiques nécessaires à une intégration 3D haute densité type puce à plaque ont été développées et caractérisées.
176

Stabilité instrumentale en neuro imagerie fonctionnelle et structurelle

Hafyane, Tarik 05 1900 (has links)
Dans ce mémoire, nous décrivons le travail effectué pour étendre nos connaissances sur les sources d’instabilité instrumentales en imagerie de résonance magnétique, en particulier dans le domaine anatomique par une étude où cinq adultes ont été scannés quatre fois dans la même plate-forme IRM, deux fois avant et deux fois après une mise à niveau importante d’un scanner 3T de Siemens. Les volumes de l’hippocampe droit et gauche de chaque sujet ont été mesurés avec une segmentation manuelle. Nous avons analysé la fiabilité test-retest avant et après la mise à niveau du système d’IRM. Dans le domaine fonctionnel, cinq adultes ont été scannés quatre fois dans la même plate forme IRM deux fois avant et deux fois après la même mise à niveau du scanneur. Les acquisitions du signal BOLD sont faites dans deux différentes résolutions spatiales (2x2x2mm et 4x4x4mm) pour évaluer la sensibilité du signal BOLD sous conditions de haute et basse SNR. Une dernière étude fonctionnelle sur fantôme avait pour but d’étudier la stabilité de la machine pour les images fonctionnelles et détecter les sources de bruit de type machine. La séquence EPI (Echo Planar Imaging) d’écho de gradient à deux dimensions a été utilisée. Des analyses comme le pourcentage des fluctuations et l’analyse de Fourier des résidus ont également été réalisées. Nous résultats indiquent que les différences dans le matériel provenant d’une importante mise à niveau ne peuvent pas compromettre la validité des études structurelles et fonctionnelles faites à travers la mise à niveau du scanneur. Les acquisitions quotidiennes ont permis de suivre l’évolution de la stabilité et de détecter toute source de bruit qui peut détériorer la détection des activations dans les images fonctionnelles. / In this thesis, we describe work we carried out to extend our knowledge on instrumental sources of MRI variability, in both anatomical and functional imaging. The anatomical study involved five adults scanned four times in the same platform MRI twice before and twice after a major update of a 3T Siemens scanner. The volumes of left and right hippocampus of each subject were measured with a manual segmentation. We then analyzed the test-retest reliability before and after updating the MRI system. In the functional study, five adults were scanned four times on the same MRI system twice before and twice after a major hardware update. Blood oxygenation level- dependent (BOLD) acquisitions were made at two different spatial resolutions (2x2x2mm and 4x4x4mm) to assess the reproducibility of BOLD measurements under conditions of high and low SNR. A final functional study using a gel phantom was used to study the stability of the machine for functional images and isolate the sources of noise arising from hardware. Two-dimensional gradient-echo EPI (Echo Planar Imaging) signals were analyzed to assess the percentage variability and Fourier analysis of residual error performed. Our results indicate that the differences in hardware from a major upgrade do not significantly affect the reliability of structural and functional studies spanning a major hardware upgrade. Daily quality assurance acquisitions on phantoms can be used to monitor the stability of the machine, which may aid in the early detection of hardware faults.
177

Caractérisation électrique et fiabilité des transistors intégrant des dielectriques High-k et des grilles métalliques pour les technologies FDSOI sub-32nm

Brunet, Laurent 08 March 2012 (has links)
L'intégration de diélectriques High-k dans les empilements de grille des transistors a fait naître des problèmes de fiabilité complexes. A cela vient s'ajouter, en vue des technologies sub-32nm planaires, de nouvelles problématiques liées à l'utilisation de substrats silicium sur isolant complètement désertés FDSOI. En effet, l'intégration d'un oxyde enterré sous le film de silicium non seulement va modifier l'électrostatique de la structure mais aussi introduire une nouvelle interface Si/SiO2 sujette à d'éventuelles dégradations. Ce manuscrit présente différentes méthodes de caractérisation électrique ainsi que différentes études de fiabilité des dispositifs FDSOI intégrants des empilements High-&#954;/ grille métallique. Dans un premier temps, une étude complète du couplage électrostatique dans des structures FDSOI est réalisée, permettant de mieux appréhender l'effet d'une tension en face arrière sur les caractéristiques électriques des dispositifs. Différentes méthodes de caractérisation des pièges d'interface sont ensuite présentées et adaptées, quand cela est possible, au cas spécifique du FDSOI, où les défauts entre le film de silicium et l'oxyde enterré doivent être pris en compte. Enfin, différentes études de fiabilité sont présentées, des phénomènes de PBTI et de NBTI sur des dispositifs à canaux longs aux phénomènes propres aux dispositifs de petite dimension, tels que l'impact des porteurs chauds dans des structures FDSOI à film ultra fins et les effets parasites d'augmentation de la tension de seuil lorsque les largeurs des transistors diminuent. / The integration of High-k dielectrics in recent CMOS technologies lead to new complex reliability issues. Furthermore new concerns appear with the use of fully depleted silicon on insulator (FDSOI) substrates for future sub-32nm planar technologies. Indeed, the integration of a buried oxide underneath the silicon film changes the electrostatic of the structure and create a new Si/SiO2 interface which may be degraded. This thesis presents different electrical characterization techniques and reliability studies on High-&#954;/metal gate FDSOI transistors. First, a complete electrostatic study of FDSOI structures is done allowing a better understanding of the effects of backgate biases. Different techniques to characterize interface traps are then presented and adapted to FDSOI devices, where traps at the silicon film/buried oxide interface must be considered. Finally, different reliability studies are presented; from NBTI and PBTI issues on long channel devices to specific concerns related to small gate length transistors such as hot carriers degradation on ultra-thin film FDSOI devices and threshold voltage increase with gate width scaling.
178

Etude de la fiabilité des technologies CMOS avancées, depuis la création des défauts jusqu'à la dégradation des transistors

Mamy Randriamihaja, Yoann 02 November 2012 (has links)
L'étude de la fiabilité représente un enjeu majeur de la qualification des technologies de l'industrie de la microélectronique. Elle est traditionnellement étudiée en suivant la dégradation des paramètres des transistors au cours du temps, qui sert ensuite à construire des modèles physiques expliquant le vieillissement des transistors. Nous avons fait le choix dans ces travaux d'étudier la fiabilité des transistors à l'échelle microscopique, en nous intéressant aux mécanismes de ruptures de liaisons atomiques à l'origine de la création des défauts de l'oxyde de grille. Nous avons tout d'abord identifié la nature des défauts et modéliser leurs dynamiques de capture de charges afin de pouvoir reproduire leur impact sur des mesures électriques complexes. Cela nous a permis de développer une nouvelle méthodologie de localisation des défauts, le long de l'interface Si-SiO2, ainsi que dans le volume de l'oxyde. La mesure des dynamiques de créations de défauts pour des stress de type porteurs chauds et menant au claquage de l'oxyde de grille nous a permis de développer des modèles de dégradation de l'oxyde, prédisant les profils de défauts créés à l'interface et dans le volume de l'oxyde. Nous avons enfin établi un lien précis entre l'impact de la dégradation d'un transistor sur la perte de fonctionnalité d'un circuit représentatif du fonctionnement d'un produit digital.L'étude et la modélisation de la fiabilité à l'échelle microscopique permet d'avoir des modèles plus physiques, offrant ainsi une plus grande confiance dans les extrapolations de durées de vie des transistors et des produits. / Reliability study is a milestone of microelectronic industry technology qualification. It is usually studied by following the degradation of transistors parameters with time, used to build physical models explaining transistors aging. We decided in this work to study transistors reliability at a microscopic scale, by focusing on atomic-bond-breaking mechanisms, responsible of defects creation into the gate-oxide. First, we identified defects nature and modeled their charge capture dynamics in order to reproduce their impact on complex electrical measurements degradation. This has allowed us developing a new methodology of defects localization, along the Si/SiO2 interface, and in the volume of the gate-oxide. Defects creation dynamics measurement, for Hot Carrier stress and stress conditions leading to the gate-oxide breakdown, has allowed us developing gate-oxide degradation models, predicting generated defect profiles at the interface and into the volume of the gate-oxide. Finally, we established an accurate link between a transistor degradation impact on circuit functionality loss.Reliability study and modeling at a microscopic scale allows having more physical models, granting a better confidence in transistors and products lifetime extrapolation.
179

Étude de la vulnérabilité et de la robustesse des ouvrages / Vulnerability and robustness analyses of systems

Kagho Gouadjio, Nadia Christiana 11 January 2013 (has links)
Le terme de robustesse structurale donne lieu à diverses définitions et domaines d'application. Dans le domaine de l'ingénierie structurale, le cadre réglementaire des Eurocodes définit la robustesse structurale comme « l'aptitude d'une structure à résister à des événements tels que les incendies, les explosions, les chocs ou les conséquences d'une erreur humaine, sans présenter de dégâts disproportionnés par rapport à la cause d'origine ». Cette définition fait clairement ressortir les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). Cette thèse propose une approche de la quantification de la robustesse structurale en contexte probabiliste pour mesurer l'impact d'une défaillance localisée sur la défaillance globale de la structure. L'objectif majeur de la thèse est de quantifier l'écart entre une défaillance locale et une défaillance globale, en introduisant différents indices de robustesse selon que la structure soit intègre ou initialement endommagée. Pour cela, dans le but de caractériser et quantifier les liens existant entre la performance des différents éléments d'une structure et la performance globale de la structure, il est nécessaire d'introduire une étude en système qui intègre de manière concomitante des notions de défaillance locale (modes de défaillance) et des notions de défaillance globale. Une recherche « par l'intérieur » des chemins de défaillance dominants est présentée. Le terme « par l'intérieur » est utilisé car c'est le cheminement interne de la défaillance dans la structure qui est recherché. Des méthodes de parcours d'arbre d'évènements sont introduites telles que la méthode des « branches et bornes », du β-unzipping, ou encore du β-unzipping avec bornage. Ces méthodes permettent d'identifier les chemins de défaillance dominants avec des temps de calcul raisonnables. En particulier, il est possible de déterminer le chemin de défaillance associé à la plus grande probabilité de défaillance, appelé encore chemin de référence. Une approche « par l'extérieur » est également proposée, qui consiste à identifier la défaillance globale sans parcourir un arbre d'évènement (et donc sans s'intéresser à l'ordre avec lequel la défaillance survient). Le terme « par l'extérieur » correspond donc à regarder la défaillance de manière globale sans chercher à déterminer la chronologie de la défaillance. Dans les deux cas, l'enjeu est au final de développer une démarche globale permettant d'apprécier et de quantifier la robustesse des structures neuves ou existantes au travers de méthodes et d'indices pouvant s'appliquer à une large variété de problèmes / Structural robustness is associated with several definitions depending on context. In the field of structural engineering, the Eurocodes define structural robustness as “the ability of a structure to withstand events like fire, explosions, impact or the consequences of human error, without being damaged to an extent disproportionate to the original cause”. Such a definition clearly involves concepts of local and global failures. This PhD work proposes a methodology to quantify structural robustness in a probabilistic way and to assess the impact of local failures on global failures. The main objective of this PhD is to quantify the gap between local and global failures by introducing several robustness indices proposed for undamaged and damaged structures. To qualify and quantify the relationships between the performance of the different structural components and the overall structural performance, it is necessary to introduce a system-level analysis which simultaneously considers concepts of local failure modes and global failure events. An inner approach is introduced to determine significant failure sequences and to characterize stochastically dominant failure paths identified by using branch-and-bound, β-unzipping, and mixed β-unzipping with bounding methods. These methods enable to determine significant failure paths with reasonable computational times. In particular, the path with the largest probability of occurrence is considered as the reference failure path. An outer approach is also proposed which identifies global failure without using an event-tree search (and, consequently, without analyzing the order in the failure sequence). This concept characterizes an overall and simultaneous failure of different components without determining the chronology in the failure event. In both cases, the goal is to provide a general and widely applicable framework for qualifying and quantifying the robustness level of new and existing structures through the introduction of methodologies and indices
180

Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables / Rare event simulation using Monte Carlo in highly reliable networks

Saggadi, Samira 08 July 2013 (has links)
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel. / Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling.

Page generated in 0.0592 seconds