• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes

Diamoutene, Abdoulaye 26 November 2018 (has links) (PDF)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold"
312

Unification des stratégies de contrôle de réseau embarqué temps-réel reconfigurable / Unified control strategies of embedded real-time reconfigurable network

Petit, Dorine 30 November 2018 (has links)
Les travaux de thèse s’inscrivent dans le cadre d’une relation pérenne que le CRAN entretient depuis 10 ans avec le CNES. Il s’agit d’étudier la pertinence du remplacement des réseaux de type bus actuellement embarqués dans les lanceurs européens, par des architectures Ethernet commutées standard sur étagères. Les précédents travaux ont permis de qualifier Ethernet sur 2 items de qualité de service : temps-réel et disponibilité. Nous nous attachons à poursuivre ce travail en validant ces premiers résultats sur une plateforme, reproduction à l’échelle de l’architecture qui sera embarquée dans les lanceurs. Ensuite, nous travaillons sur un item original de qualité de service, exigence typique du spatial, appelé observabilité. L’objectif est de rejouer tout vol, après coup, au sol, sachant que le lanceur n’y revient pas, et que l’architecture est commutée, conférant au réseau une dimension multi-domaines d’observation non synchronisés. La synthèse de toutes les captures impose donc de garantir que l’ordonnancement et la fraîcheur des informations de contrôle du lanceur véhiculées dans les trames soient en cohérence avec le fonctionnement applicatif spécifié, et que ce qui est observé soit conforme à ce qui s’est réellement passé. Enfin, nous proposons un sur-échantillonnage réglé dynamiquement pour profiter de la bande passante disponible sans remettre en cause les exigences temps-réel, de reconfiguration et d’observabilité / This thesis is part of a long-lasting relationship between the CRAN and the CNES since 10 years. This involves studying the pertinence of replacing the buses currently embedded in European’s launchers, by off-the-shelf switched standard Ethernet architecture. Previous works qualified Ethernet regarding two quality of service items: real time and reliability. We continue this work by validating these first results on a platform, true scale architecture reproduction which will be embedded in launchers. Then, we work on an original quality of service item, typical of the spatial requirements, called observability. The objective is to re-play the whole flight, afterwards, on ground, knowing that the launcher will not come back, and the architecture is segmented, conferring to the network the dimension of non synchronized multi-domains of observation. The synthesis of all the captures implies to guarantee that the order and the freshness of launcher control information are consistent with the specified applicative operation, and that what is observed is compliant to what really happened. Finally, we propose an over-sampling which is dynamically regulated in order to benefit from the available bandwidth without disturbing real time, reconfiguration and observability requirements
313

Contribution to renewable systems grid connected : control, stability analysis and reliability / Contribution aux systèmes renouvelables connectés en réseau : contrôle, analyse de la stabilité et fiabilité

Forrisi, Ivano 02 December 2016 (has links)
Cette thèse a pour but l'analyse d'un système photovoltaïque connecté au réseau électrique en prenant en compte le contrôle, l'étude de la stabilité et la fiabilité. Un onduleur de type 2-Niveau a été comparé avec un onduleur multi-niveaux appelé Neutral Point Clamped. Les avantages et désavantage de chaque topologie ont été analysé en considérant l'efficacité énergétique, l'optimisation de l'injection de l'énergie sur le réseau électrique et la fiabilité du système. Pour le contrôle du courant de sortie de l'onduleur, ont été proposées deux solutions : un contrôle basé sur la théorie de la platitude et un contrôle par passivité. Ces deux différents contrôles sont comparés par rapport à la robustesse, la complexité et le nombre de capteurs utilisés. Il a été montré que les deux contrôles sont capables de gérer la problématique de la résonance du filtre LCL. Pour augmenter l'efficacité de l'algorithme MPPT dans une configuration Distributed-MPPT avec la connexion en série des deux sorties des convertisseurs boost, une nouvelle technique a été proposé pour l'équilibrage des tension d'entrée d'un onduleur NPC. En utilisant un outil appelé TPtool, un étude de la stabilité large signal par "Higher-Order-Singular-Value-Decomposition" a été présenté et comparé avec une méthode basée sur les modèles Takagi-Sugeno pour des systèmes non-linéaires. Finalement, l'onduleur 2-Niveaux est comparé avec deux multi-niveaux différents (NPP et NPC) en termes de disponibilité, en prenant en compte les niveaux de redondance des convertisseurs. Pour analyser la disponibilité, a été considérée la théorie des chaines de Markov et pour l'implémentation, le logiciel GRIF a été utilisé / The aim of this PhD thesis is to analyze a PV-grid connected system in terms of control, stability and reliability. A comparison between a classical 2-Level inverter and a multilevel NPC is presented. The advantages and weakness of both the converters are analyzed with respect to the power efficiency, optimization of the energy injection to the grid and reliability of the system. In order to control the inverter output current, two different solutions are proposed: flatness-based control and passivity-based control. These controls are compared in terms of robustness, complexity and number of sensors used. It is shown that both the controls may manage the resonance problems due to a LCL filter. For increasing the efficiency of the MPPT in a configuration Distributed-MPPT with connections in series of the boost converters outputs, a novel technique for the dc voltages balancing of a NPC inverter is proposed. A large stability analysis using "Higher-Order-Singular-Value-Decomposition" is presented and compared with Takagi-Sugeno approach for nonlinear systems. Finally, 2-Level inverter is compared with two multilevel inverters (NPC and NPP) in terms of availability, considering the redundancy levels of the converters. To analyze the systems availability, the Markov chains theory is considered and it is implemented on GRIF
314

Reliability-based design optimization of structures : methodologies and applications to vibration control / Optimisation fiabiliste des structures : méthodes et applications au contrôle des vibrations

Yu, Hang 15 November 2011 (has links)
En conception de produits ou de systèmes, les approches d'optimisation déterministe sont de nos jours largement utilisées. Toutefois, ces approches ne tiennent pas compte des incertitudes inhérentes aux modèles utilises, ce qui peut parfois aboutir à des solutions non fiables. Il convient alors de s'intéresser aux approches d'optimisation stochastiques. Les approches de conception robuste à base d'optimisation stochastique (Reliablity Based Robust Design Optimization, RBRDO) tiennent compte des incertitudes lors de l'optimisation au travers d'une boucle supplémentaire d'analyse des incertitudes(Uncertainty Anlysis, UA). Pour la plupart des applications pratiques, l'UA est réalisée par une simulation de type Monte Carlo (Monte Carlo Simulation, MCS) combinée avec l’analyse structurale. L'inconvénient majeur de ce type d'approche réside dans le coût de calcul qui se révèle être prohibitif. Par conséquent, nous nous sommes intéressés dans nos travaux aux développements de méthodologies efficaces pour la mise en place de RBRDO s'appuyant sur une analyse MCS. Nous présentons une méthode d'UA s'appuyant sur une analyse MCS dans laquelle la réponse aléatoire est approximée sur une base du chaos polynomial (Polynomial Chaos Expansion, PCE). Ainsi, l'efficacité de l'UA est grandement améliorée en évitant une trop grande répétition des analyses structurales. Malheureusement, cette approche n'est pas pertinente dans le cadre de problèmes en grande dimension, par exemple pour des applications en dynamique. Nous proposons ainsi d'approximer la réponse dynamique en ne tenant compte que de la résolution aux valeurs propres aléatoires. De cette façon, seuls les paramètres structuraux aléatoires apparaissent dans le PCE. Pour traiter le problème du mélange des modes dans notre approche, nous nous sommes appuyés sur le facteur MAC qui permet de le quantifier. Nous avons développé une méthode univariable permettant de verifier quelle variable générait un mélange de modes de manière à le réduire ou le supprimer. Par la suite, nous présentons une approche de RBRDO séquentielle pour améliorer l'efficacité et éviter les problèmes de non-convergence présents dans les approches de RBRDO. Dans notre approche, nous avons étendu la stratégie séquentielle classique, visant principalement à découpler l'analyse de fiabilité de la procédure d'optimisation, en séparant l'évaluation des moments de la boucle d'optimisation. Nous avons utilisé une approximation exponentielle locale autour du point de conception courant pour construire des objectifs déterministes équivalents ainsi que des contraintes stochastiques. De manière à obtenir les différents coefficients pour notre approximation, nous avons développé une analyse de sensibilité de la robustesse basée sur une distribution auxiliaire ainsi qu'une analyse de sensibilité des moments basée sur l'approche PCE. Nous montrons la pertinence ainsi que l'efficacité des approches proposées au travers de différents exemples numériques. Nous appliquons ensuite notre approche de RBRDO pour la conception d'un amortisseur dans le domaine du contrôle passif vibratoire d'une structure présentant des grandeurs aléatoires. Les résultats obtenus par notre approche permettent non seulement de réduire la variabilité de la réponse, mais aussi de mieux contrôler l'amplitude de la réponse au travers d'un seuil choisi par avance. / Deterministic design optimization is widely used to design products or systems. However, due to the inherent uncertainties involved in different model parameters or operation processes, deterministic design optimization without considering uncertainties may result in unreliable designs. In this case, it is necessary to develop and implement optimization under uncertainties. One way to deal with this problem is reliability-based robust design optimization (RBRDO), in which additional uncertainty analysis (UA, including both of reliability analysis and moment evaluations) is required. For most practical applications however, UA is realized by Monte Carlo Simulation (MCS) combined with structural analyses that renders RBRDO computationally prohibitive. Therefore, this work focuses on development of efficient and robust methodologies for RBRDO in the context of MCS. We presented a polynomial chaos expansion (PCE) based MCS method for UA, in which the random response is approximated with the PCE. The efficiency is mainly improved by avoiding repeated structural analyses. Unfortunately, this method is not well suited for high dimensional problems, such as dynamic problems. To tackle this issue, we applied the convolution form to compute the dynamic response, in which the PCE is used to approximate the modal properties (i.e. to solve random eigenvalue problem) so that the dimension of uncertainties is reduced since only structural random parameters are considered in the PCE model. Moreover, to avoid the modal intermixing problem when using MCS to solve the random eigenvalue problem, we adopted the MAC factor to quantify the intermixing, and developed a univariable method to check which variable results in such a problem and thereafter to remove or reduce this issue. We proposed a sequential RBRDO to improve efficiency and to overcome the nonconvergence problem encountered in the framework of nested MCS based RBRDO. In this sequential RBRDO, we extended the conventional sequential strategy, which mainly aims to decouple the reliability analysis from the optimization procedure, to make the moment evaluations independent from the optimization procedure. Locally "first-torder" exponential approximation around the current design was utilized to construct the equivalently deterministic objective functions and probabilistic constraints. In order to efficiently calculate the coefficients, we developed the auxiliary distribution based reliability sensitivity analysis and the PCE based moment sensitivity analysis. We investigated and demonstrated the effectiveness of the proposed methods for UA as well as RBRDO by several numerical examples. At last, RBRDO was applied to design the tuned mass damper (TMD) in the context of passive vibration control, for both deterministic and uncertain structures. The associated optimal designs obtained by RBRDO cannot only reduce the variability of the response, but also control the amplitude by the prescribed threshold.
315

Evaluation de la qualité des résultats de la collaboration électronique / Evaluation of electronic collaboration quality of results

Chebil, Raoudha 30 September 2014 (has links)
A l'ère actuelle de la décentralisation des ressources et des compétences, le recours aux technologies est devenu de plus en plus fréquent donnant naissance à la collaboration électronique désignée aussi par eCollaboration. Malgré tous les avantages qu'elle apporte, l'implication des technologies dans le processus de la collaboration est loin de résoudre tous ses problèmes. Les travaux de recherche tournant autour de l'évaluation de l'eCollaboration se focalisent sur la détection, l'explication et la résolution de ces problèmes. Dans la littérature, nous avons noté que les travaux d'évaluation accordent un intérêt particulier et non justifié à la composante technologique de l'eCollaboration aux dépens de sa composante humaine. Cette constatation a motivé notre travail de thèse qui a pour objectif de proposer une approche générique d'évaluation des scénarios d'eCollaboration qui prend en compte leurs composantes technologiques et humaines. Face à la délicatesse du contexte de l'eCollaboration et afin d'atteindre l'objectif fixé, notre contribution a suivi une démarche constituée de trois étapes. La première étape a consisté en une analyse basée sur les scénarios qui, suite à l'élaboration de plusieurs abstractions, nous a permis de proposer un modèle conceptuel de l'eCollaboration, un schéma des interactions mises en œuvre et une classification des scénarios d'eCollaboration. La deuxième étape s'est intéressée au développement d'un simulateur de scénarios d'eCollaboration en se basant sur les résultats produits par l'étape précédente. Ce travail nous a permis d'identifier un critère générique de succès de l'eCollaboration à travers la génération de différentes instances de scénarios d'eCollaboration se déroulant dans des conditions variées et l'observation de différents types d'anomalies qui y apparaissent. La troisième étape a porté sur la proposition d'une approche générique d'évaluation basée sur le critère de succès dégagé précédemment et composée de deux niveaux : le premier consiste en une détection des anomalies et le deuxième se focalise sur l'explication de celles-ci en se basant sur une méthode d'analyse de la fiabilité humaine qui considère que toute anomalie détectée est provoquée par une inadéquation des conditions de déroulement qui englobent des causes aussi bien technologiques que humaines. / In the actual area of resource and skills decentralization, the use of technologies has become increasingly common under the name of electronic collaboration or eCollaboration. In spite of its interest, the involvement of technologies in the collaboration process has not solved all its problems. The research works on eCollaboration evaluation are focused on the detection, explanation and resolution of these problems.In the literature, we noted that evaluation works accord a special and unjustified attention to technological component of eCollaboration scenarios at the expense of their human component. This finding has motivated our thesis, aiming to propose a generic evaluation approach of eCollaboration scenarios that considers technological and human eCollaboration components. Given the delicacy of eCollaboration environments and to attain the objective of this work, our contribution follows a three step based process. The first step consists in a scenario based analysis that allowed, after carrying out several abstractions, to suggest a conceptual eCollaboration model, a scheme of the implemented interactions and a classification of eCollaboration scenarios. The second step is focused on the development of an eCollaboration simulator based on results of the previous step. This work allowed us to identify a generic criterion for eCollaboration success by generating different instances of eCollaboration scenarios progressing in varied conditions and observing different types of anomalies occuring on them. The third step was interested in the proposition of a generic evaluation approach based on the success criterion previously detected and composed by two levels : the first is interested in anomaly detection and the second is focused on the explanation of it, using a human reliability analysis method which considers that any detected anomaly is due to inappropriate progress conditions including both technological and human causes.
316

Conception d'entrainement multimachines multi-convertisseurs à haut niveau de fiabilité fonctionnelle / conception of high functional reality multi-machines multi-converter drive s

Dos santos moraes, Tiago José 10 October 2017 (has links)
Dans les avions et lanceurs, des systèmes entraînés par l’énergie hydraulique, mécanique ou pneumatique sont progressivement remplacés par des systèmes électriques pour des raisons techniques et industrielles. Cependant, ces nouveaux systèmes doivent répondre aux contraintes économiques et de poids concernant ces domaines tout en garantissant une certaine fiabilité. Dans ce contexte industriel, des topologies innovantes multi-machines multi-convertisseurs à haut niveau de fiabilité sont comparées ici à des structures plus standards toujours tolérantes aux défaillances. Ainsi, des topologies avec des machines polyphasées couplées électriquement en série ont été choisies pour ce travail de thèse. La mise en série permet la mutualisation des bras d’onduleurs, réduisant ainsi leur nombre, et augmente la résistance totale du système. La valeur crête du courant est alors réduite lors de l’apparition de certains défauts avec, comme contrepartie, une augmentation inéluctables des pertes Joule globales. Pour que le contrôle de ces machines couplées électriquement en série soit indépendant, il est mis en évidence pourquoi le nombre de phase de ces machines doit être supérieur à 3 et avec de plus une connexion électrique spéciale permutant les phases. Une nouvelle topologie brevetée est tout particulièrement étudiée et testée expérimentalement. Apres validation du concept, des stratégies de contrôle plus complexes et des reconfigurations de la commande après le défaut sont appliquées afin de juger des potentialités d’amélioration des systèmes Pour les comparaisons, des simulations et des essais expérimentaux ont été réalisés. Les critères choisis pour cette comparaison ont été la puissance de dimensionnement de l’onduleur, servant d’image de son coût et de son poids, les pertes Joule et le couple pulsatoire, tous les trois pour un fonctionnement en mode dégradé. / In airplanes and launch vehicles, hydraulics, mechanical and pneumatic systems are progressively being replaced by electric systems for technical and industrial reasons. However, these new electric systems have to take into account the economical and weight reliability constraints of the aeronautics industry, ensuring the required reliability. Therefore, novel high reliability multi-machine and multi-converter topologies are compared to standard structures looking forward to find solutions that can be industrially implemented. Then, series-coupled machine topologies were chosen for this work. The series-coupling mutualizes the inverter legs, reducing their number, and increases the total electrical resistance of the system. As a consequence, the peak-current after the occurrence of certain faults is reduced, but the total copper losses are higher. In order to independently control the series-coupled machines, it is highlighted the reason why the number of phases must be higher than 3 and with a special electric coupling that permutes the machine’s phases. A new patented topology is deeply analyzed with experimental tests. After a validation of the studied system, more complex control strategies and control reconfiguration after a fault are also implemented in order to evaluate the potential improvements on the system performance in degraded mode. Simulation and experimental results were used on this study. For this analysis the dimensioning power of the inverter, the copper losses and the torque ripple, all of them in degraded mode, are the compared criterions.
317

Impact d’un systeme anticollision sur le traitement de l'information et le comportement du conducteur / Impact of a collision warning system on information processing and driver behaviour

Bueno garcia, Mercedes 27 September 2013 (has links)
Ce travail de thèse a été centré sur l’analyse de l’impact d’un système d’alerte anticollision sur le traitement de l’information et le comportement du conducteur en conduite automobile simulée. Les objectifs de ce travail étaient 1) de déterminer l’impact d’un signal avertisseur associé à un système d’alerte anticollision sur le traitement de l’information à partir de potentiels évoqués ; 2) d’analyser l’efficacité d’un tel système en fonction de sa fiabilité ; 3) et en fonction de l’état attentionnel des conducteurs ; et 4) d’examiner l’adaptation comportementale au système au cours du temps. Grâce à une double approche comportementale et électrophysiologique, nous avons montré que le signal avertisseur agit au niveau de l’anticipation et de la préparation à la réponse ainsi qu’au niveau cognitif du traitement de l’information. Par ailleurs, nous avons confirmé que les systèmes anticollision ne nécessitent pas d’être complètement fiables pour être efficaces. Nous avons également observé que l’efficacité du signal avertisseur associé au système anticollision était moindre chez les sujets distraits, notamment lorsque la charge cognitive associée à la distraction était élevée. Ceci suggère que le signal avertisseur nécessite des ressources attentionnelles pour être traité et, donc, pour être efficace. Concernant l’adaptation comportementale au système, les principaux résultats ont montré, d’une part, que l’introduction immédiate du système a eu un effet positif sur le comportement de conduite et, d’autre part, que le processus d’adaptation au système à plus long terme peut être affecté si les conducteurs sont distraits par des tâches secondaires coûteuses en ressources attentionnelles. / This thesis was focused on the analysis of the impact of a collision warning system on information processing and driver behaviour in simulated driving. The objectives of this work were 1) to determine the impact of a warning signal associated with a collision warning system on the processing of information using evoked potentials, 2) to analyse the effectiveness of such a system according to its reliability, 3) and according to the drivers’ attentional state, 4) to examine the behavioural adaptation to the system over time. Using an electrophysiological and behavioural dual approach, we showed that the warning signal acts at the level of anticipation and response preparation and at the level of cognitive processing. Moreover, we confirmed that collision warning systems do not need to be completely reliable to be effective. We also observed that the effectiveness of the warning signal associated with the collision warning system was lower in distracted subjects, especially when the cognitive load associated with the distraction was high. This suggests that the warning signal requires attentionnal resources in order to be processed and, therefore, to be effective. Concerning behavioural adaptation to the system, the main results showed firstly that the immediate introduction of the system had a positive effect on the driving behaviour and secondly that the process of adaptation of the system at the longer term may be affected if drivers are distracted by high demanding secondary tasks.
318

Mise en oeuvre de nouveaux matériaux d’assemblage dans les modules multipuces de puissance (MCM) / Use of new bonding materials for multi chip module (MCM)

Hascoët, Stanislas 19 November 2013 (has links)
L’introduction des composants grand gap dans le domaine de l’électronique de puissance requiert une optimisation de son environnement (packaging). En effet, les températures auxquelles peuvent être utilisés ce type de composants sont bien souvent plus grandes que celles supportables par le reste du module. De nouvelles techniques d’assemblage sont à l’étude et notamment certaines à base de frittage d’argent. Ces procédés présentent l’avantage de réaliser l’assemblage à une température modérée (similaire à celle d’une brasure), mais toutefois inférieure à celle de fusion de l’argent. La température de fusion du joint d’attache reste celle du matériau massif (plus de 900°C pour l’argent). Cette technique permet donc de réaliser des attaches pouvant fonctionner à très haute température. Ce travail de thèse a porté sur la mise en oeuvre d’une attache de puce par frittage d’argent. Après une étude des paramètres du procédé permettant d’obtenir la meilleure tenue mécanique (cisaillement), nous avons mis en évidence l’effet prépondérant de la finition des pièces à joindre. Lorsque la finition du substrat est de l’argent, aucun problème d’interface n’est observé et les assemblages sont fiables à t0 et en vieillissement. Généralement, la finition standard pour l’électronique de puissance est constituée d’une couche de nickel et d’or. Pour cette finition, le mécanisme semble différent selon l’épaisseur d’or présente sur le substrat ainsi que l’atmosphère utilisée pour le traitement thermique ou encore la charge appliquée. Globalement, plus l’épaisseur d’or est importante, moindre est l’accroche. Ce comportement semble fortement lié à la diffusion extrêmement rapide de l’argent en surface de l’or (et dans l’or). Cette diffusion a pour conséquence la formation d’une couche de solution solide or-argent. Cette couche a pour source de matière les grains d’argent qui permettent l’adhérence du joint d’argent fritté sur le substrat. Lorsque le volume d’or disponible pour la formation de cette couche est grand, la croissance de celle-ci est favorisée (en termes de surface et d’épaisseur). Cette croissance engendre une consommation des « piliers » d’argent et donc un affaiblissement de l’attache. L’application de pression semble augmenter fortement la concentration de piliers et améliore les résultats, tandis que sous azote, la diffusion de l’argent en surface de l’or semble inhibée, permettant l’obtention de bons résultats (à t0 et après cyclage). Ces résultats ont été mis en pratique pour la réalisation de plusieurs prototypes, dont l’un a été testé électriquement et ce de façon fonctionnelle à plus de 300°C. / Use of wide band gap chip in the power electronic industry requires an optimization of the close environment (packaging). Indeed, the can often sustain lower temperature than the die, especially the solder that are used to bond the parts of the module. Consequently, new bonding methods are investigated to enhance the performance of the packages. Silver sintering bonding technique is one the most promising. This method allow to bond parts at moderate temperature and the formed joint to operate at very high temperature (until the melting point of silver). This work is focused on the development of this bonding technique in the case of bonding a dies on a substrate. A study of the influence of the different parameters on the strength of the formed bond has been done. It revealed a major influence of the finishes of the bonded parts. Bonding on silver finished substrate results in good mechanical strength of the bond even after ageing. Furthermore, no interface issues are observed. However, the most used finish for power electronic is not silver but nickel-gold. Regarding this type of finish, the bond quality depends on the gold thickness, sintering profile and also sintering atmosphere. A solid solution of silver and gold seems to develop on the surface of the substrate, decreasing the section of the silver grains in contact with the substrate. Thus the mechanical strength of the assembly is decreased. This effect should be limited by the gold available for the Au-Ag solid solution growth. When sintering under nitrogen, the diffusion of silver on the gold surface is much lower than under air. Good results have been obtained with these configurations and even after ageing. Adding pressure during the thermal treatment seems also to minimize the phenomenon, probably by increasing the number of silver grains in contact with the substrate surface and so reducing the free surface for Au-Ag layer formation. Those results have been used to build prototypes, one of whom has been electrically tested with success at temperatures up to 300°C.
319

Sequential Design of Experiments to Estimate a Probability of Failure. / Planification d'expériences séquentielle pour l'estimation de probabilités de défaillance

Li, Ling 16 May 2012 (has links)
Cette thèse aborde le problème de l'estimation de la probabilité de défaillance d'un système à partir de simulations informatiques. Lorsqu'on dispose seulement d'un modèle du système coûteux à simuler, le budget de simulations est généralement très limité, ce qui est incompatible avec l’utilisation de méthodes Monte Carlo classiques. En fait, l’estimation d’une petite probabilité de défaillance à partir de simulations très coûteuses, comme on peut rencontrer dans certains problèmes industriels complexes, est un sujet particulièrement difficile. Une approche classique consiste à remplacer le modèle coûteux à simuler par un modèle de substitution nécessitant de faibles ressources informatiques. A partir d’un tel modèle de substitution, deux opérations peuvent être réalisées. La première opération consiste à choisir des simulations, en nombre aussi petit que possible, pour apprendre les régions de l’espace des paramètres du système qui construire de bons estimateurs de la probabilité de défaillance. Cette thèse propose deux contributions. Premièrement, nous proposons des stratégies de type SUR (Stepwise Uncertainty Reduction) à partir d’une formulation bayésienne du problème d’estimation d’une probabilité de défaillance. Deuxièmement, nous proposons un nouvel algorithme, appelé Bayesian Subset Simulation, qui prend le meilleur de l’algorithme Subset Simulation et des approches séquentielles bayésiennes utilisant la modélisation du système par processus gaussiens. Ces nouveaux algorithmes sont illustrés par des résultats numériques concernant plusieurs exemples de référence dans la littérature de la fiabilité. Les méthodes proposées montrent de bonnes performances par rapport aux méthodes concurrentes. / This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.
320

Le procédé de report intermétallique en Phase Liquide Transitoire (TLPB) : du développement du procédé à la caractérisation des assemblages intermétalliques / The Transient Liquid Phase Bonding process (TLPB) : from process development to the characterization of the intermetallic assemblies

Feuillet, Emilien 21 March 2016 (has links)
Un des enjeux majeur de l’électronique de puissance est de pouvoir étendre l’utilisation des modules de puissance à haute température, supérieure à 200°C. Or, en température, l’endommagement des joints de brasure est un des principaux modes de défaillance des modules de puissance. C’est pourquoi, l’objectif de cette thèse consiste à développer un procédé d’assemblage alternatif : le procédé de report intermétallique (IMC) en phase liquide transitoire (TLPB) à partir du système binaire cuivre-étain. Ce procédé est très attractif car il permet de former à basse température (250°C), un joint entièrement constitué de phases IMCs qui sont réputées pour leur stabilité à très haute température (supérieure à 600°C pour la phase Cu3Sn). Afin d’optimiser le procédé, l’influence des paramètres d’assemblage sur les mécanismes de croissance des phases IMCs a été déterminée. Cette étude a permis de mettre en évidence la nécessité d’insérer une barrière de diffusion de type IMC entre les substrats et le métal d’apport afin de modifier les processus de diffusion atomique aux interfaces et ainsi d’éviter la formation d’une importante porosité au sein des joints IMCs. Après avoir mis au point un procédé de report innovant et optimal, la fiabilité des assemblages IMCs a été évaluée à partir d’essais expérimentaux et de modèles numériques par éléments finis. Il a été montré que la fiabilité en cyclage thermique des joints IMCs est très supérieure à celle des alliages de brasure de référence SnAgCu. Le procédé de report IMC développé au cours de cette thèse est donc un excellent candidat au remplacement des alliages de brasure pour des applications à haute température. / To meet the future requirements of power electronics, the packaging technologies of power modules must withstand higher operation temperatures, higher than 200°C. However, an increase of the operation temperatures leads to a significant decrease of the solder joints reliability and thus to the failure of the power modules. That’s why the main objective of this PhD thesis is to develop an alternative bonding technic for high temperature applications: the Transient Liquid Phase Bonding process (TLPB) based on the copper-tin binary system. This process is very attractive because it allows the formation, at low temperature, of a joint entirely composed of intermetallic (IMC) compounds which are well known for their high thermal stability. To optimize the process, the influence of the main bonding parameters on the growth of the IMC phases has been first investigated. The results indicate that the deposition of an IMC diffusion barrier is required to alter the atomic diffusion motion at the interfaces between the Cu substrates and the Sn interlayer and to avoid the formation of large pores along the bond mid-plane. After the development of an innovative and optimal bonding process, the reliability of the IMC assemblies has been investigated through experimental tests and finite element simulations. The IMC joints show a higher thermal cycling reliability than the reference SnAgCu solder alloys. Hence, the IMC bonding process developed during this PhD thesis is an excellent alternative to the soft solder alloys for high temperature applications.

Page generated in 0.5342 seconds