• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Vers la compréhension des mécanismes de dégradation et de vieillissement des assemblages photovoltaïques pour des applications sous haute concentration

Mabille, Loïc 13 March 2014 (has links) (PDF)
Les systèmes photovoltaïques à concentration, ou CPV, reposent sur le principe de la concentration des rayons du soleil sur une cellule photovoltaïque à très haut rendement. Le CPV reste jeune face au photovoltaïque (PV) classique qui accumule plus de 30 ans de retour d'expérience.La pérennisation de cette technologie CPV ne passera que par la démonstration d'une certaine maturité. Aussi, la question de la fiabilité de ces systèmes est plus que jamais d'actualité. Dans ce contexte, le Commissariat à L'Energie Atomique et aux Energies Alternatives (CEA) a répondu à la sollicitation lancée par des fabricants de modules CPV français sur la thématique de la conception et de la fiabilisation de modules CPV par une collaboration de ses différents laboratoires, dont le Laboratoire des Modules Photovoltaïques (LMPV). C'est au sein de ce laboratoire que s'effectuent les travaux de thèse. La diversité des éléments constituant un module CPV a poussé les travaux de thèse à se concentrer sur le coeur fonctionnel des modules : les assemblages CPV. Une première partie des travaux de thèse a consisté à mettre en place les bons outils de caractérisation, en partant parfois d'une feuille blanche. La mesure de caractéristique IV dans l'obscurité, la mesure de réponse spectrale, la tomographie RX ou encore l'électroluminescence sont autant de moyens de caractérisation de cellules multi-jonctions amenés par les travaux de thèse. Les efforts conduits sur l'électroluminescence auront permis l'invention d'une nouvelle technique de caractérisation des interfaces cellule/ substrat des assemblages CPV, concrétisée par le dépôt d'un brevet. Une collaboration entre le laboratoire d'accueil et l'Institut de l'Energie Solaire (IES) à Madrid a permis l'accès à la mesure de performance des assemblages CPV sous éclairement. Tous ces moyens ont rendu possible une caractérisation fine des assemblages CPV et ont permis de s'intéresser à leur robustesse-fiabilité, deuxième partie des travaux de thèse. Deux types d'assemblages CPV ont été étudiés durant les travaux de thèse. Le premier, basé sur un substrat Direct Bonded Copper (DBC) correspond à l'état de l'art et est le plus utilisé dans l'industrie CPV. Le deuxième, en rupture technologique avec l'état de l'art, repose sur un Substrat Métal Isolé (SMI), et a été intégralement développé par le CEA et ses partenaires industriels. L'étude de la robustesse de ces assemblages CPV a été faite par l'emploi de tests de vieillissement accéléré dont la nature est justifiée par le retour d'expérience et la définition des spécifications environnementales. Aucune défaillance n'a été observé sur chacun des types d'assemblage. Les assemblages SMI se comportent comme les assemblages DBC, considérés comme références. Les travaux de thèse offrent donc un premier retour d'expérience propre au laboratoire d'accueil et la mise en place d'une infrastructure complète de caractérisation d'assemblage CPV permet aujourd'hui au CEA d'être un acteur clé du CPV en France.
382

Contribution à l'étude de la fiabilité des modules de puissance pour application automobile

Rizzi, Mathieu 28 March 2008 (has links) (PDF)
L'objectif de ce travail est d'apporter une réponse quant à la robustesse des nouvelles technologies de modules de puissance pour l'application automobile et plus particulièrement les solutions micro-hybrides. Cette thèse, initiée par les travaux menés au sein du projet Européen PIDEA PEPPER, a permis la comparaison d'un point de vue de la durée de vie d'une technologie de report de puce nue classique d'une part et de celle par échauffement local rapide, élaborée dans le cadre de ce projet d'autre part. En s'appuyant sur ces résultats, il a été possible, par la suite, d'extrapoler ce travail afin de l'adapter aux exigences des futures modules de puissance comprenant une évacuation double face. Finalement, une comparaison des deux solutions d'un point de vue de la durée de vie a été réalisée.
383

Contribution à l'évaluation de sûreté de fonctionnement des architectures de surveillance/diagnostic embarquées. Application au transport ferroviaire

Gandibleux, Jean 06 December 2013 (has links) (PDF)
Dans le transport ferroviaire, le coût et la disponibilité du matériel roulant sont des questions majeures. Pour optimiser le coût de maintenance du système de transport ferroviaire, une solution consiste à mieux détecter et diagnostiquer les défaillances. Actuellement, les architectures de surveillance/diagnostic centralisées atteignent leurs limites et imposent d'innover. Cette innovation technologique peut se matérialiser par la mise en oeuvre d'architectures embarquées de surveillance/diagnostic distribuées et communicantes afin de détecter et localiser plus rapidement les défaillances et de les valider dans le contexte opérationnel du train. Les présents travaux de doctorat, menés dans le cadre du FUI SURFER (SURveillance active Ferroviaire) coordonné par Bombardier, visent à proposer une démarche méthodologique d'évaluation de la sûreté de fonctionnement d'architectures de surveillance/diagnostic. Pour ce faire, une caractérisation et une modélisation génériques des architectures de surveillance/diagnostic basée sur le formalisme des Réseaux de Petri stochastiques ont été proposées. Ces modèles génériques intègrent les réseaux de communication (et les modes de défaillances associés) qui constituent un point dur des architectures de surveillance/diagnostic retenues. Les modèles proposés ont été implantés et validés théoriquement par simulation et une étude de sensibilité de ces architectures de surveillance/diagnostic à certains paramètres influents a été menée. Enfin, ces modèles génériques sont appliqués sur un cas réel du domaine ferroviaire, les systèmes accès voyageurs des trains, qui sont critiques en matière de disponibilité et diagnosticabilité.
384

Contribution à l'étude, la mise en œuvre et à l'évaluation d'une solution de report de puce de puissance par procédé de frittage de pâte d'argent à haute pression et basse température

Le Henaff, François 29 January 2014 (has links) (PDF)
Ces travaux s'intègrent dans la recherche de solutions alternatives aux alliages de brasure pour les assemblages de puissance. De par les propriétés intrinsèques de l'argent et les premiers travaux publiés, le frittage de pâte d'argent a été sélectionné comme technique d'assemblage pour être étudiée et évaluée. Après avoir effectué un état de l'art sur la structure d'un module de puissance, sur les différentes techniques d'assemblage, la fiabilité des assemblages et le frittage, différents essais ont été menés en partenariat avec les projets FIDEA et ASPEEC. Ils nous ont permis de définir des procédés d'assemblages, de caractériser thermiquement et mécaniquement les assemblages frittés et d'évaluer la fiabilité de ces assemblages par des essais expérimentaux et des simulations numériques. Ces travaux nous ont permis au final de réaliser un prototype d'assemblage double face fonctionnel aux propriétés thermomécaniques supérieures à celles d'un assemblage brasé.
385

Analyse de défaillance de nouvelles technologies microélectroniques : nouvelles approches dans la méthodologie de préparation d'échantillon

Aubert, A. 11 July 2012 (has links) (PDF)
Dans le développement des technologies microélectroniques, l'analyse de défaillance permet par l'étude des mécanismes de défaillance potentiels de définir des solutions correctives. La mise en œuvre des techniques de localisation et d'observation des défauts requiert une méthodologie, dont l'étape clé est la préparation d'échantillons. Celle-ci doit continuellement évoluer pour s'adapter aux innovations technologiques qui introduisent de nouveaux matériaux, et augmentent la complexité des composants assemblés. Cette thèse s'est intéressée à la méthodologie de préparation d'échantillons pour l'analyse de défaillance de deux familles de produits : les produits discrets et IPAD, et les micro-batteries. Pour les produits discrets et IPAD, une optimisation de la méthodologie existante a été réalisée en intégrant de nouvelles approches, développées pour résoudre des cas jusqu'alors en échec. Pour les micro-batteries, les matériaux utilisés et leur architecture ont nécessité une remise en question complète de la méthodologie de préparation d'échantillon.
386

Optimisation avec prise en compte des incertitudes dans la mise en forme par hydroformage

Ben Abdessalem, Mohamed Anis 08 June 2011 (has links) (PDF)
Le procédé d'hydroformage est largement utilisé dans les industries automobile et aéronautique. L'optimisation déterministe a été utilisée pour le contrôle et l'optimisation du procédé durant la dernière décennie. Cependant,dans des conditions réelles, différents paramètres comme les propriétés matériaux,les dimensions géométriques, et les chargements présentent des aléas qui peuvent affecter la stabilité et la fiabilité du procédé. Il est nécessaire d'introduire ces incertitudes dans les paramètres et de considérer leur variabilité. L'objectif principal de cette contribution est l'évaluation de la fiabilité et l'optimisation du procédé d'hydroformage en présence d'incertitudes.La première partie de cette thèse consiste à proposer une approche générale pour évaluer la probabilité de défaillance spatiale du procédé d'hydroformage, principalement dans les régions critiques. Avec cette approche, il est possible d'éviter les instabilités plastiques durant une opération d'hydroformage. Cette méthode est basée sur des simulations de Monte Carlo couplée avec des métamodèles. La courbe limite de formage est utilisée comme critère de défaillance pour les instabilités plastiques potentielles.La seconde partie de cette thèse est l'optimisation avec prise en compte d'incertitudes dans le procédé d'hydroformage. En utilisant des exemples illustratifs, on montre que l'approche probabiliste est une méthode efficace pour l'optimisation du procédé pour diminuer la probabilité de défaillance et laisser le procédé insensible ou peu sensible aux sources d'incertitudes. La difficulté est liée à la considération des contraintes fiabilistes qui nécessitent d'énormes efforts de calcul et impliquent des problèmes numériques classiques comme la convergence, la précision et la stabilité. Pour contourner ce problème, la méthode de surface de réponse couplée à des simulations Monte Carlo est utilisée pour évaluer les contraintes probabilistes.L'approche probabiliste peut assurer la stabilité et la fiabilité du procédé et minimise considérablement le pourcentage des pièces défectueuses. Dans cette partie, deux méthodes sont utilisées : l'optimisation fiabiliste et l'optimisation robuste.La dernière partie consiste à optimiser le procédé avec une stratégie Multi-Objectif(MO) avec prise en compte d'incertitudes. Le procédé d'hydroformage est un problème MO qui consiste à optimiser plus d'une performance simultanément.L'objectif principal est d'étudier l'évolution du front de Pareto lorsque des incertitudes affectent les fonctions objectifs ou les paramètres. Dans cette partie, on propose une nouvelle méthodologie qui présente les solutions dans un nouvel espace et les classifie suivant leurs probabilités de défaillances. Cette classification permet d'identifier la meilleure solution et fournit une idée sur la fiabilité de chaque solution.
387

Analyse de données de surveillance et synthèse d'indicateurs de défauts et de dégradation pour l'aide à la maintenance prédictive de parcs de turbines éoliennes / Monitoring data analysis and synthesis of deterioration & failure indicators for predictive maintenance decision-making. Application to offshore windfarms

Lebranchu, Alexis 09 November 2016 (has links)
Le secteur de l’énergie éolienne est en pleine expansion depuis les 10 dernières années. Le nombre et la taille des éoliennes ont été multipliés, ce qui accroît la difficulté et la criticité de la maintenance, et impose aux industriels de passer d’une maintenance corrective et systématique à une maintenance conditionnelle et prédictive. L'objectif de ces travaux est de développer des indicateurs de dégradation, en utilisant les données numériques fournies par le SCADA, disponibles à faible coût mais enregistrées à une faible fréquence d'échantillonnage (10 min) dans un objectif de suivi de production. Une analyse bibliographique approfondie des travaux réalisés sur la surveillance de parcs éoliens à partir de données SCADA montre que deux types d’approches sont généralement proposés. Les méthodes dites mono-turbines où un modèle de comportement d’une turbine est appris sur des périodes de bon fonctionnement, à partir duquel il est possible de créer des résidus mesurant la différence entre la valeur prédite par le modèle et la mesure en ligne, qui servent d’indicateurs de défaut. Les modèles mono-turbines ont la particularité d’utiliser des variables provenant de la même turbine du parc. Les deuxièmes méthodes, dites multi-turbines, sont des méthodes où l'effet parc et la similarité entre machines sont utilisés. Là où les recherches les plus récentes proposent principalement de créer des courbes de performances pour chaque machine du parc pendant une période de temps et de comparer ces courbes entre elles, nous faisons la proposition originale de combiner les deux approches et de comparer les résidus mono-turbines à une référence parc traduisant le comportement majoritaire des turbines du parc. Nous validons de manière extensive ces indicateurs en analysant leurs performances sur une base de données composée d’enregistrements de variables SCADA d’une durée de 4 ans sur un parc de 6 machines. Nous proposons aussi des critères de performances pertinents permettant d’évaluer de manière réaliste les gains et éventuels surcoûts que généreraient ces indicateurs s’ils étaient intégrés dans un outil de maintenance. Ainsi, nous montrons que le taux d’interventions inutiles associées à des fausses alarmes produites par les indicateurs de défaut, et qui provoquent un surcoût très important pour l’entreprise, peut être fortement diminué par la fusion d’indicateurs mono-turbines que nous proposons, tout en conservant une avance à la détection suffisante pour planifier la mise en place d’interventions par les équipes de maintenance. / The wind energy sector has rapidly gown in the last 10 years. The number and the size of wind turbines have multiplied, which increases the difficulty and the criticality of the maintenance, and forces the wind turbine industry to change from a corrective and systematic maintenance to a conditional and predictive maintenance. The objective of this research is to develop failure indicators using numerical SCADA data, available at a low price but with a very low sampling frequency (10 min), in order to make online monitoring.A thorough bibliographical analysis on the surveillance of wind farms using SCADA data shows that two types of approaches are usually suggested. The first approach, called mono-turbine, where a good behaviour model of a turbine is learnt over unfaulty periods. With this approach, it is possible to create residuals measuring the difference between the predicted value by the model and the on-line measure, which serves as failure indicators. The mono-turbine models have the peculiarity in that they use variables coming from the same turbine as the farms. The second approach, called multi-turbine, are methods where the similarity between machines is used. Where the most recent researches mostly suggest creating performance curves for every machine on the farm during a period of time and comparing these curves between each other, we make the original proposal to combine both approaches and compare mono-turbine residuals with a farm reference representing the behaviour of the turbines of the farm.We validate in an extensive way those failure indicators by analysing their performances on a database made up of SCADA variable recordings of a duration of 4 years on a windfarm of 6 machines. We also propose relevant performance criteria allowing an estimation in a realistic way of the gains and possible additional costs which would generate these indicators if they were integrated into a tool of maintenance. Therefore, we show that the rate of useless interventions associated with false alarms produced by the failure indicators, which cause a heavy additional cost for the company, can be strongly decreased by the mono-turbines indicators merging that we propose, while preserving a sufficient detection time for the maintenance teams to plan interventions.
388

Evaluation de la sensibilité face aux SEE et méthodologie pour la prédiction de taux d’erreurs d’applications implémentées dans des processeurs Multi-cœur et Many-cœur / Evaluation of the SEE sensitivity and methodology for error rate prediction of applications implemented in Multi-core and Many-core processors

Ramos Vargas, Pablo Francisco 18 April 2017 (has links)
La présente thèse vise à évaluer la sensibilité statique et dynamique face aux SEE de trois dispositifs COTS différents. Le premier est le processeur multi-cœurs P2041 de Freescale fabriqué en technologie 45nm SOI qui met en œuvre ECC et la parité dans leurs mémoires cache. Le second est le processeur multifonction Kalray MPPA-256 fabriqué en technologie CMOS 28nm TSMC qui intègre 16 clusters de calcul chacun avec 16 cœurs, et met en œuvre ECC dans ses mémoires statiques et parité dans ses mémoires caches. Le troisième est le microprocesseur Adapteva E16G301 fabriqué en 65nm CMOS processus qui intègre 16 cœurs de processeur et ne pas mettre en œuvre des mécanismes de protection. L'évaluation a été réalisée par des expériences de rayonnement avec des neutrons de 14 Mev dans des accélérateurs de particules pour émuler un environnement de rayonnement agressif, et par injection de fautes dans des mémoires cache, des mémoires partagées ou des registres de processeur pour simuler les conséquences des SEU dans l'exécution du programme. Une analyse approfondie des erreurs observées a été effectuée pour identifier les vulnérabilités dans les mécanismes de protection. Des zones critiques telles que des Tag adresses et des registres à usage général ont été affectées pendant les expériences de rayonnement. De plus, l'approche Code Emulating Upset (CEU), développée au Laboratoire TIMA, a été étendue pour des processeurs multi-cœur et many-cœur pour prédire le taux d'erreur d'application en combinant les résultats issus des campagnes d'injection de fautes avec ceux issus des expériences de rayonnement. / The present thesis aims at evaluating the SEE static and dynamic sensitivity of three different COTS multi-core and many-core processors. The first one is the Freescale P2041 multi-core processor manufactured in 45nm SOI technology which implements ECC and parity in their cache memories. The second one is the Kalray MPPA-256 many-core processor manufactured in 28nm TSMC CMOS technology which integrates 16 compute clusters each one with 16 processor cores, and implements ECC in its static memories and parity in its cache memories. The third one is the Adapteva Epiphany E16G301 microprocessor manufactured in 65nm CMOS process which integrates 16 processor cores and do not implement protection mechanisms. The evaluation was accomplished through radiation experiments with 14 Mev neutrons in particle accelerators to emulate a harsh radiation environment, and by fault injection in cache memories, shared memories or processor registers, to simulate the consequences of SEUs in the execution of the program. A deep analysis of the observed errors was carried out to identify vulnerabilities in the protection mechanisms. Critical zones such as address tag and general purpose registers were affected during the radiation experiments. In addition, The Code Emulating Upset (CEU) approach, developed at TIMA Laboratory was extended to multi-core and many core processors for predicting the application error rate by combining the results issued from fault injection campaigns with those coming from radiation experiments.
389

Approche logicielle pour améliorer la fiabilité d’applications parallèles implémentées dans des processeurs multi-cœur et many-cœur / Software approach to improve the reliability of parallel applications implemented on multi-core and many-core processors

Vargas Vallejo, Vanessa Carolina 28 April 2017 (has links)
La grande capacité de calcul, flexibilité, faible consommation d'énergie, redondance intrinsèque et la haute performance fournie par les processeurs multi/many-cœur les rendent idéaux pour surmonter les nouveaux défis dans les systèmes informatiques. Cependant, le degré d'intégration de ces dispositifs augmente leur sensibilité aux effets des radiations naturelles. Par conséquent, des fabricants, partenaires industriels et universitaires travaillent ensemble pour améliorer les caractéristiques de ces dispositifs ce qui permettrait leur utilisation dans des systèmes embarqués et critiques. Dans ce contexte, le travail effectué dans le cadre de cette thèse vise à évaluer l'impact des SEEs (Single Event Effects) dans des applications parallèles s'exécutant sur des processeurs multi-cœur et many-cœur, et développer et valider une approche logicielle pour améliorer la fiabilité du système appelée N- MoRePar. La méthodologie utilisée pour l'évaluation était fondée sur des études de cas multiples. Les différents scénarios mis en œuvre envisagent une large gamme de configurations de système en termes de mode de multi-processing, modèle de programmation, modèle de mémoire et des ressources utilisées. Pour l'expérimentation, deux dispositifs COTS ont été sélectionnés: le quad-core Freescale PowerPC P2041 en technologie SOI 45nm, et le processeur multi-cœur KALRAY MPPA-256 en CMOS 28nm. Les études de cas ont été évaluées par l'injection de fautes et par des campagnes des tests sur neutron. Les résultats obtenus servent de guide aux développeurs pour choisir la configuration du système la plus fiable en fonction de leurs besoins. En outre, les résultats de l'évaluation de l'approche N-MoRePar basée sur des critères de redondance et de partitionnement augmente l'utilisation des processeurs COTS multi/many-cœur dans des systèmes qui requièrent haute fiabilité. / The large computing capacity, great flexibility, low power consumption, intrinsic redundancy and high performance provided by multi/many-core processors make them ideal to overcome with the new challenges in computing systems. However, the degree of scale integration of these devices increases their sensitivity to the effects of natural radiation. Consequently manufacturers, industrial and university partners are working together to improve their characteristics which allow their usage in critical embedded systems. In this context, the work done throughout this thesis aims at evaluating the impact of SEEs on parallel applications running on multi-core and many-core processors, and proposing a software approach to improve the system reliability. The methodology used for evaluation was based on multiple-case studies. The different scenarios implemented consider a wide range of system configurations in terms of multi-processing mode, programming model, memory model, and resources used. For the experimentation, two COTS devices were selected: the Freescale PowerPC P2041 quad-core built in 45nm SOI technology, and the KALRAY MPPA-256 many-core processor built in 28nm CMOS technology. The case-studies were evaluated through fault-injection and neutron radiation. The obtained results serve as useful guidelines to developers for choosing the most reliable system configuration according to their requirements. Furthermore, the evaluation results of the proposed N-MoRePar fault-tolerant approach based on redundancy and partitioning criteria boost the usage of COTS multi/many-core processors in high level dependability systems.
390

Caractérisation et modélisation de la fiabilité des transistors et circuits millimétriques conçus en technologies BiCMOS et CMOS / Reliability characterization and modeling of transistors and millimetric waves circuits designed in BiCMOS and CMOS technologies

Ighilahriz, Salim 31 March 2014 (has links)
De nos jours, l'industrie de la microélectronique développe des nouvelles technologies qui permettent l'obtention d'applications du quotidien alliant rapidité, basse consommation et hautes performances. Pour cela, le transistor, composant actif élémentaire et indispensable de l'électronique, voit ses dimensions miniaturisées à un rythme effréné suivant la loi de Moore de 1965. Cette réduction de dimensions permet l'implémentation de plusieurs milliards de transistors sur des surfaces de quelques millimètres carrés augmentant ainsi la densité d'intégration. Ceci conduit à une production à des coûts de fabrication constants et offre des possibilités d'achats de produits performants à un grand nombre de consommateurs. Le MOSFET (Metal Oxide Semiconductor Field Effect Transistor), transistor à effet de champ, aussi appelé MOS, représente le transistor le plus utilisé dans les différents circuits issus des industries de la microélectronique. Ce transistor possède des longueurs électriques de 14 nm pour les technologies industrialisables les plus avancées et permet une densité intégration maximale spécialement pour les circuits numériques tels que les microprocesseurs. Le transistor bipolaire, dédié aux applications analogiques, fut inventé avant le transistor MOS. Cependant, son développement correspond à des noeuds technologiques de génération inférieure par rapport à celle des transistors MOS. En effet, les dimensions caractéristiques des noeuds technologiques les plus avancés pour les technologies BiCMOS sont de 55 nm. Ce type de transistor permet la mise en oeuvre de circuits nécessitant de très hautes fréquences d'opération, principalement dans le secteur des télécommunications, tels que les radars anticollisions automobiles fonctionnant à 77 GHz. Chacun de ces types de transistors possède ses propres avantages et inconvénients. Les avantages du transistor MOS reposent principalement en deux points qui sont sa capacité d'intégration et sa faible consommation lorsqu'il est utilisé pour réaliser des circuits logiques. Sachant que ces deux types de transistors sont, de nos jours, comparables du point de vue miniaturisation, les avantages offerts par le transistor bipolaire diffèrent de ceux du transistor MOS. En effet, le transistor bipolaire supporte des niveaux de courants plus élevés que celui d'un transistor MOS ce qui lui confère une meilleure capacité d'amplification de puissance. De plus, le transistor bipolaire possède une meilleure tenue en tension et surtout possède des niveaux de bruit électronique beaucoup plus faibles que ceux des transistors MOS. Ces différences notables entre les deux types de transistors guideront le choix des concepteurs suivant les spécifications des clients. L'étude qui suit concerne la fiabilité de ces deux types de transistors ainsi que celle de circuits pour les applications radio fréquences (RF) et aux longueurs d'ondes millimétriques (mmW) pour lesquels ils sont destinés. Il existe dans la littérature de nombreuses études de la fiabilité des transistors MOS. Concernant les transistors bipolaires peu d'études ont été réalisées. De plus peu d'études ont été menées sur l'impact de la fiabilité des transistors sur les circuits. L'objectif de ce travail est d'étudier le comportement de ces deux types de transistors mais aussi de les replacer dans le contexte de l'utilisateur en étudiant la fiabilité de quelques circuits parmi les plus usités dans les domaines hyperfréquence et millimétrique. Nous avons aussi essayé de montrer qu'il était possible de faire évoluer les règles de conception actuellement utilisées par les concepteurs tout en maintenant la fiabilité attendue par les clients. / Nowadays, the microelectronics industry develops new technologies that allow the production of applications combining high speed, low power consumption and high performance. For this, the transistor, active elementary and essential component of electronics, sees its miniaturized dimensions at a breakneck pace following Moore's Law in 1965. This size reduction allows the implementation of several billion transistors on surfaces of a few square millimeters and increasing the integration density. This leads to a production at constant costs and offers opportunities for shopping performing products at a large number of consumers. The MOSFET (Metal Oxide Semiconductor Field Effect Transistor), field effect transistor, also called MOS transistor is the most used in different circuits coming from the microelectronics industries. This transistor has electrical lengths of 14 nm for the industrially most advanced technology and allows a maximum integration density specifically for digital circuits such as microprocessors. Bipolar transistor, dedicated to analog applications, was invented before the MOS transistor. However, the characteristic dimensions of the most advanced technologies for BiCMOS technology nodes is 55 nm. This type of transistor enables the implementation of systems requiring very high frequency operation, mainly in the telecommunications industry , such as automotive collision avoidance radar operating at 77 GHz. Each of these transistors has its own advantages and disadvantages. The advantages of MOS transistor are mainly based on two points that are its integration capacity and its low power consumption when used to implement logic circuits. Knowing that these two types of transistors are, nowadays, comparable on the miniaturization aspect, benefits of bipolar transistor differ from those of the MOS transistor. Indeed, the bipolar transistor supports higher current levels than a MOS transistor which gives it a greater ability of power amplification. Moreover , the bipolar transistor has an improved breakdown voltage and especially features electronic noise levels much lower than those of the MOS transistors. These significant differences between the two transistors types will guide the designers choice according to the customer specifications. The following study relates the reliability of these two transistors types as well as circuits for radio frequency (RF) applications and millimeter wavelengths (mmW) for which they are intended. There are in the literature many studies of the reliability of MOS transistors. Regarding bipolar transistors few studies have been conducted. In addition few studies have been conducted on the impact of the reliability of transistors on circuits. The objective of this work is to study the behavior of these two types of transistors but also to place them in the user context by studying the reliability of some of most used circuits in the microwave and millimeter fields. We also tried to show that it was possible to change the design rules currently used by designers while maintaining the expected reliability by the counsumers.

Page generated in 0.0369 seconds