• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 150
  • 76
  • 2
  • 1
  • 1
  • Tagged with
  • 632
  • 323
  • 177
  • 174
  • 90
  • 77
  • 76
  • 75
  • 73
  • 72
  • 65
  • 58
  • 53
  • 53
  • 52
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Etude et modélisation des dégradations des composants de puissance grand gap soumis à des contraintes thermiques et électriques / Study and modeling of large gap power components degradations subjected to thermal and electrical constraints

Jouha, Wadia 29 November 2018 (has links)
Ce travail vise à étudier la robustesse de trois générations de MOSFET SiC de puissance (Silicon Carbide Metal Oxide Semiconductor Field E_ect Transistors). Plusieurs approches sont suivies : la caractérisation électrique, la modélisation physique, les tests de vieillissement et la simulation physique. Un modèle compact basé sur une nouvelle méthode d'extraction de paramètres et sur les résultats de caractérisation électrique est présenté. Les paramètres extraits du modèle (tensionde seuil, transconductance de la région de saturation et paramètre du champ électrique transverse) sont utilisés pour analyser avec précision le comportement statique de trois générations de MOSFET SiC. La robustesse de ces dispositifs sont étudiées par deux tests : le test HTRB (High Temperature Reverse Bias) et le test ESD (Electrostatic Discharge). Une simulation physique est réalisée pour comprendre l'impact de la température et des paramètres physiques sur les caractérisations électriques des MOSFETs SiC. / This work aims to investigate the robustness of three generations of power SiC MOSFETs (SiliconCarbide Metal Oxide Semiconductor Field E_ect Transistors). Several approaches are followed :electrical characterization, device modeling, ageing tests and physical simulation. An improvedcompact model based on an accurate parameters extraction method and one electrical characterization results is presented. The parameters extracted precisely from the model (thresholdvoltage, saturation region transconductance...) are used to accurately analyze the static behaviorof two generations of SiC MOSFETs. The robustness of these devices are investigated bytwo tests : HTRB (High Temperature Reverse Bias) stress and an ESD (Electrostatic Discharge)stress. Physical simulation is conducted to understand the impact of the temperature and thephysical parameters on the device electrical characterizations.
432

Conception et réalisation d’un banc pour l’étude de fiabilité des micros dispositifs piézoélectriques de récupération d’énergie dédiés aux implants cardiaques / Design and realization of a bench for the study of the reliability of micro piezoelectric energy harvesting devices dedicated to cardiac implants

Maaroufi, Seifeddine 30 June 2017 (has links)
Dans le cadre de cette thèse de doctorat, nous présentons la conception et la réalisation d’un banc dédié à l’étude de la fiabilité de structures piézoélectriques et plus précisément des micro-dispositifs de récupération d'énergie destinés aux implants médicaux autonomes actifs (stimulateurs cardiaques de nouvelle génération). Les structure étudiées se présentent sous la forme d’un bimorphe piézoélectrique encastré-libre comportant une masse sismique à leur extrémité. Une bonne compréhension du vieillissement des matériaux et des modes de défaillance mécanique et électrique est essentielle pour ce type de système où la vie du patient au sein duquel est implanté le dispositif est directement mise en jeu. Pour étudier la fiabilité et la durabilité de la partie active du récupérateur, nous proposons d'établir une nouvelle méthodologie de vieillissement accélérée via un banc d'essai dédié où l'environnement et les stimuli peuvent être contrôlés avec précision sur une large période de temps. Une caractérisation électromécanique des structures est périodiquement réalisée via l’extraction d’une série d’indicateurs (force de blocage, raideur, tension en régime harmonique) au sein même du banc tout au long du vieillissement. Il est donc ainsi possible d'identifier les différents modes de défaillance potentiels et d’étudier leurs impacts sur le bon fonctionnement du système. / Within the framework of this PhD we present the design and realization of a bench dedicated to the study of the reliability of piezoelectric structures and more precisely micro-devices of energy harvesting for the new generation of active and autonomous medical implants. The structures studied are in the form of a free-clamped piezoelectric bimorph having a seismic mass at their tip. A good understanding of the aging of the materials and of the mechanical and electrical failure modes is essential for this type of system where the life of the patient implanted by this device is directly involved. To study the reliability and durability of the active part of the harvester, we propose to establish a new accelerated aging methodology via a dedicated test bench where the environment and stimuli can be controlled accurately over a large period of time. An electromechanical characterization of the structures is periodically carried out by the extraction of a series of indicators (blocking force, stiffness, tension in harmonic regime) within the bench throughout the aging process. Therefore it is possible to identify the different potential failure modes and to study their impact on the proper functioning of the system.
433

Circuit-level approaches to mitigate the process variability and soft errors in FinFET logic cells / Approches au niveau du circuit pour atténuer la variabilité de fabrication et les soft errors dans les cellules logiques FinFET

Lackmann-Zimpeck, Alexandra 24 September 2019 (has links)
Les contraintes imposées par la roadmap technologique nanométrique imposent aux fabricants de microélectronique une réduction de la variabilité de fabrication mais également de durcissement vis-à-vis des erreurs logiques induits par l’environnement radiatif naturel afin d’assurer un haut niveau de fiabilité. Certains travaux ont mis en évidence l'influence de la variabilité de fabrication et SET sur les circuits basés sur les technologies FinFET. Cependant jusqu’à lors, aucune approche pour les atténuer n’ont pu être présenté pour les technologies FinFET. Pour ces raisons, du point de vue de la conception, des efforts considérables doivent être déployés pour comprendre et réduire les impacts générés par ces deux problématiques de fiabilité. Dans ce contexte, les contributions principales de cette thèse sont: 1) étudier le comportement des cellules logiques FinFET en fonction des variations de fabrication et des effets de rayonnement; 2) évaluer quatre approches des durcissement au niveau du circuit afin de limiter les effets de variabilité (work-function fluctuation, WFF) de fabrication et des soft errors (SE); 3) fournir une comparaison entre toutes les techniques appliquées dans ce travail; 4) proposer le meilleur compromis entre performance, consommation, surface, et sensibilité aux corruptions de données et erreurs transitoires. Transistor reordering, decoupling cells, Schmitt Trigger, et sleep transistor sont quatre techniques prometteuses d’optimisation au niveau de circuit, explorées dans ce travail. Le potentiel de chacune d'elles pour rendre les cellules logiques plus robustes vis-à-vis variabilité de fabrication et de SE a été évalué. Cette thèse propose également une estimation des tendances comportementales en fonction du niveau de variabilité, des dimensionnements des transistors et des caractéristiques énergétique de particule ionisante comme transfert d'énergie linéaire. Lors de cette thèse, la variabilité de fabrication a été évaluée par des simulations Monte Carlo (MC) avec une WFF modélisé par une fonction Gaussienne utilisant le SPICE. La susceptibilité SE a été estimée à partir de d’outil de génération MC de radiations, MUSCA SEP3. Cet outil est basé sur des calculs MC afin de rendre compte des caractéristiques de l’environnement radiatif du design et des paramètres électriques des composants analysés. Les approches proposées par cette thèse améliorent l'état-de-l'art actuel en fournissant des options d’optimisation au niveau du circuit pour réduire les effets de variabilité de fabrication et la susceptibilité aux SE. La Transistor reordering peut augmenter la robustesse des cellules logiques pour une variabilité allant jusqu’à 8%, cependant cette approche n’est pas idéale pour la mitigation des SE. L’utilisation de decoupling cells permet de meilleurs résultats pour le contrôle de la variabilité de consommation avec des niveaux de variation supérieurs à 4%, et atténuant jusqu'à 10% la variabilité du délai pour la variabilité de fabrication de 3% de la WFF. D’un point de vue SE, cette technique permet une diminution de 10% de la sensibilité des cellules logiques étudiées. L’utilisation de structure Schmitt Triggers en sortie de cellule logique permet une amélioration allant jusqu’à 5% de la sensibilité à la variabilité de fabrication. Enfin, l’utilisation de sleep transistors améliore la variabilité de fabrication d'environ 12% pour 5% de WFF. La variabilité du délai dépend de la manière dont les transistors sont disposés au circuit. Cette méthode permet une immunité totale de la cellule logique y compris en régime near-threshold. En résumé, la meilleure approche de mitigation de la variabilité de fabrication semble être l’utilisation de structure Schmitt Triggers alors que l’utilisation de sleep transistors est le plus adapté pour l’optimisation de SE. Ainsi, selon les applications et contraintes, la méthode de durcissement par sleep transistors semble proposer le meilleur compromis. / Process variability mitigation and radiation hardness are relevant reliability requirements as chip manufacturing advances more in-depth into the nanometer regime. The parameter yield loss and critical failures on system behavior are the major consequences of these issues. Some related works explore the influence of process variability and single event transients (SET) on the circuits based on FinFET technologies, but there is a lack of approaches to mitigate them. For these reasons, from a design standpoint, considerable efforts should be made to understand and reduce the impacts introduced by reliability challenges. In this regard, the main contributions of this PhD thesis are to: 1) investigate the behavior of FinFET logic cells under process variations and radiation effects; 2) evaluate four circuit-level approaches to attenuate the impact caused by work-function fluctuations (WFF) and soft errors (SE); 3) provide an overall comparison between all techniques applied in this work; 4) trace a trade-off between the gains and penalties of each approach regarding performance, power, area, SET cross-section, and SET pulse width. Transistor reordering, decoupling cells, Schmitt Triggers, and sleep transistors are the four circuit-level mitigation techniques explored in this work. The potential of each one to make the logic cells more robust to the process variability and radiation-induced soft errors are assessed comparing the standard version results with the design using each approach. This PhD thesis also establishes the mitigation tendency when different levels of variation, transistor sizing, and radiation particles characteristics such as linear energy transfer (LET) are applied in the design with these techniques.The process variability is evaluated through Monte Carlo (MC) simulations with the WFF modeled as a Gaussian function using SPICE simulation while the SE susceptibility is estimated using the radiation event generator tool MUSCA SEP3 (developed at ONERA) also based on a MC method that deals both with radiation environment characteristics, layout features and the electrical properties of devices. In general, the proposed approaches improve the state-of-the-art by providing circuit-level options to reduce the process variability effects and SE susceptibility, at fewer penalties and design complexity. The transistor reordering technique can increase the robustness of logic cells under process variations up to 8%, but this method is not favorable for SE mitigation. The insertion of decoupling cells shows interesting outcomes for power variability control with levels of variation above 4%, and it can attenuate until 10% the delay variability considering manufacturing process with 3% of WFF. Depending on the LET, the design with decoupling cells can decrease until 10% of SE susceptibility of logic cells. The use of Schmitt Triggers in the output of FinFET cells can improve the variability sensitivity by up to 50%. The sleep transistor approach improves the power variability reaching around 12% for WFF of 5%, but the advantages of this method to delay variability depends how the transistors are arranged with the sleep transistor in the pull-down network. The addition of a sleep transistor become all logic cells studied free of faults even at the near-threshold regime. In this way, the best approach to mitigate the process variability is the use of Schmitt Triggers, as well as the sleep transistor technique is the most efficient for the SE mitigation. However, the Schmitt Trigger technique presents the highest penalties in area, performance, and power. Therefore, depending on the application, the sleep transistor technique can be the most appropriate to mitigate the process variability effects.
434

Méthodes d’évaluation du risque de décharges partielles dans le bobinage de machines électriques destinées à la traction automobile / Methods for assessing the risk of partial discharges in windings of electrical machines used in electric vehicles

Benmamas, Loucif 30 November 2017 (has links)
Une machine électrique utilisée pour un entraînement à vitesse variable est généralement alimentée par un convertisseur statique dont les composants électroniques de puissance commutent extrêmement rapidement. De ce fait, chaque enroulement statorique de la machine est soumis à des fronts raides de tension dont la répartition sur les différentes spires qui le constituent dépend notamment des capacités parasites entre spires ou entre spires et carcasse. Des zones locales de fort champ électrique apparaissent dans le bobinage conduisant souvent la création d'une activité de décharges partielles. Ce travail de thèse a pour but de fournir des informations quantifiées et précises quant aux risques encourus lorsque divers paramètres liés à l'alimentation de la machine et la topologie du bobinage varient permettant de contribuer à acquérir une expertise vis à vis des problèmes liés à l’apparition de décharges partielles au sein des bobinages, et à en déduire des règles de conception. / Electrical machine used in variable speed drives are usually fed by a converter using fast switching power electronics devices. Thus, each stator winding of the machine is subjected to steep-fronted voltage pulses whose distribution over its various turns depends on the parasitic capacitances between turns or between turns and slot walls. Therefore, local areas of high electric field appear within the coil, often resulting in partial discharges activity. This thesis aims to provide accurate and quantified information regarding partial discharge inception when various parameters related to the machine power supply and winding topology so as to help develop expertise with respect to problems related to partial discharges, as well as to deduce machine design rules in this regard.
435

Contribution aux analyses de fiabilité des transistors HEMTs GaN : exploitation conjointe du modèle physique TCAD et des stress dynamiques HF pour l'analyse des mécanismes de dégradation / Contribution to GaN HEMTs transistors reliability analyses by use of TCAD physical modeling and HF dynamic stresses

Saugnon, Damien 18 October 2018 (has links)
Dans la course aux développements des technologies, une révolution a été induite par l'apparition des technologies Nitrures depuis deux décennies. Ces technologies à grande bande interdite proposent en effet une combinaison unique tendant à améliorer les performances en puissance, en intégration et en bilan énergétique pour des applications hautes fréquences (bande L à bande Ka en production industrielle). Ces technologies mobilisent fortement les milieux académiques et industriels afin de proposer des améliorations notamment sur les aspects de fiabilité. Les larges efforts consentis par des consortiums industriels et académiques ont permis de mieux identifier, comprendre et maîtriser certains aspects majeurs limitant la fiabilité des composants, et ainsi favoriser la qualification de certaines filières. Cependant, la corrélation et l'analyse physique fine des mécanismes de dégradation suscite encore de nombreux questionnements, et il est indispensable de renforcer ces études par une approche d'analyse multi-outils. Nous proposons dans ce travail de thèse une stratégie d'analyse selon deux aspects majeurs. Le premier concerne la mise en œuvre d'un banc de stress qui autorise le suivi de nombreux marqueurs électriques statiques et dynamiques, sans modifier les conditions de connectiques des dispositifs sous test. Le second consiste à mettre en œuvre un modèle physique TCAD le plus représentatif de la technologie étudiée afin de calibrer le composant à différentes périodes du stress.Le premier chapitre est consacré à la présentation des principaux tests de fiabilité des HEMTs GaN, et des défauts électriques et/ou structuraux recensés dans la littérature ; il y est ainsi fait état de techniques dites non-invasives (c.-à-d. respectant l'intégrité fonctionnelle du composant sous test), et de techniques destructives (c.-à-d. n'autorisant pas de reprise de mesure). Le second chapitre présente le banc de stress à haute fréquence et thermique développé pour les besoins de cette étude ; l'adjonction d'un analyseur de réseau vectoriel commutant sur les quatre voies de tests permet de disposer de données dynamiques fréquentielles, afin d'interpréter les variations du modèle électrique petit-signal des modules sous test à différentes périodes du stress. [...] / In the race to technologies development, disruptive wide bandgap GaN devices propose challenging performances for high power and high frequency applications. These technologies strongly mobilize academic and industrial partners in order to improve both the performances and the reliability aspects. Extensive efforts have made it possible to better identify, understand and control first order degradation mechanisms limiting the lifetime of the devices; however, the correlation (and fine physical analysis) of different degradation mechanisms still raises many questions, and it is essential to strengthen these studies by mean of multi-tool analysis approach. In this thesis, we propose a twofold analysis strategy. The first aspect concerns the implementation of a stress bench that allows the monitoring of numerous static and dynamic electrical markers, without removing the devices under test from their environment (in order to have a consistent data set during the period of the strain application). The second aspect consists in implementing a physical TCAD model of the technology under study, in order to calibrate the component before stress, and to tune the model at different periods of stress (still considering stress-dependent parameters potentially affecting the device). The first chapter is devoted to the presentation of the main reliability tests of GaN HEMTs, and of the electrical and/or structural defects identified in the literature; it thus refers to so-called non-invasive techniques (i.e. respecting the functional integrity of the component under test), and destructive techniques (i.e. not allowing additive electrical measurement). The second chapter presents the high frequency and thermal stress bench dedicated to this study; the addition of a vector network analyzer switching between the four test channels provides dynamic frequency data, in order to interpret the variations of the small signal electrical model of the devices under test at different stress periods.[...]
436

Conjurer la malédiction de la dimension dans le calcul du noyau de viabilité à l'aide de parallélisation sur carte graphique et de la théorie de la fiabilité : application à des dynamiques environnementales / Dispel the dimensionality curse in viability kernel computation with the help of GPGPU and reliability theory : application to environmental dynamics

Brias, Antoine 15 December 2016 (has links)
La théorie de la viabilité propose des outils permettant de contrôler un système dynamique afin de le maintenir dans un domaine de contraintes. Le concept central de cette théorie est le noyau de viabilité, qui est l’ensemble des états initiaux à partir desquels il existe au moins une trajectoire contrôlée restant dans le domaine de contraintes. Cependant, le temps et l’espace nécessaires au calcul du noyau de viabilité augmentent exponentiellement avec le nombre de dimensions du problème considéré. C’est la malédiction de la dimension. Elle est d’autant plus présente dans le cas de systèmes incorporant des incertitudes. Dans ce cas-là, le noyau de viabilité devient l’ensemble des états pour lesquels il existe une stratégie de contrôle permettant de rester dans le domaine de contraintes avec au moins une certaine probabilité jusqu’à l’horizon de temps donné. L’objectif de cette thèse est d’étudier et de développer des approches afin de combattre cette malédiction de la dimension. Pour ce faire, nous avons proposé deux axes de recherche : la parallélisation des calculs et l’utilisation de la théorie de la fiabilité. Les résultats sont illustrés par plusieurs applications. Le premier axe explore l’utilisation de calcul parallèle sur carte graphique. La version du programme utilisant la carte graphique est jusqu’à 20 fois plus rapide que la version séquentielle, traitant des problèmes jusqu’en dimension 7. Outre ces gains en temps de calcul, nos travaux montrent que la majeure partie des ressources est utilisée pour le calcul des probabilités de transition du système. Cette observation fait le lien avec le deuxième axe de recherche qui propose un algorithme calculant une approximation de noyaux de viabilité stochastiques utilisant des méthodes fiabilistes calculant les probabilités de transition. L’espace-mémoire requis par cet algorithme est une fonction linéaire du nombre d’états de la grille utilisée, contrairement à l’espace-mémoire requis par l’algorithme de programmation dynamique classique qui dépend quadratiquement du nombre d’états. Ces approches permettent d’envisager l’application de la théorie de la viabilité à des systèmes de plus grande dimension. Ainsi nous l’avons appliquée à un modèle de dynamique du phosphore dans le cadre de la gestion de l’eutrophisation des lacs, préalablement calibré sur les données du lac du Bourget. De plus, les liens entre fiabilité et viabilité sont mis en valeur avec une application du calcul de noyau de viabilité stochastique, autrement appelé noyau de fiabilité, en conception fiable dans le cas d’une poutre corrodée. / Viability theory provides tools to maintain a dynamical system in a constraint domain. The main concept of this theory is the viability kernel, which is the set of initial states from which there is at least one controlled trajectory remaining in the constraint domain. However, the time and space needed to calculate the viability kernel increases exponentially with the number of dimensions of the problem. This issue is known as “the curse of dimensionality”. This curse is even more present when applying the viability theory to uncertain systems. In this case, the viability kernel is the set of states for which there is at least a control strategy to stay in the constraint domain with some probability until the time horizon. The objective of this thesis is to study and develop approaches to beat back the curse of dimensionality. We propose two lines of research: the parallel computing and the use of reliability theory tools. The results are illustrated by several applications. The first line explores the use of parallel computing on graphics card. The version of the program using the graphics card is up to 20 times faster than the sequential version, dealing with problems until dimension 7. In addition to the gains in calculation time, our work shows that the majority of the resources is used to the calculation of transition probabilities. This observation makes the link with the second line of research which proposes an algorithm calculating a stochastic approximation of viability kernels by using reliability methods in order to compute the transition probabilities. The memory space required by this algorithm is a linear function of the number of states of the grid, unlike the memory space required by conventional dynamic programming algorithm which quadratically depends on the number of states. These approaches may enable the use of the viability theory in the case of high-dimension systems. So we applied it to a phosphorus dynamics for the management of Lake Bourget eutrophication, previously calibrated from experimental data. In addition the relationship between reliability and viability is highlighted with an application of stochastic viability kernel computation, otherwise known as reliability kernel, in reliable design in the case of a corroded beam.
437

Réseau bayésien dynamique hybride : application à la modélisation de la fiabilité de systèmes à espaces d'états discrets / hybrid dynamic bayesian network : application to reliability modeling of discrete state spaces systems

Petiet, Florence 01 July 2019 (has links)
L'analyse de fiabilité fait partie intégrante de la conception et du fonctionnement du système, en particulier pour les systèmes exécutant des applications critiques. Des travaux récents ont montré l'intérêt d'utiliser les réseaux bayésiens dans le domaine de la fiabilité, pour modélisation la dégradation d'un système. Les modèles graphiques de durée sont un cas particulier des réseaux bayésiens, qui permettent de s'affranchir de la propriété markovienne des réseaux bayésiens dynamiques. Ils s'adaptent aux systèmes dont le temps de séjour dans chaque état n'est pas nécessairement distribué exponentiellement, comme c'est le cas dans la plupart des applications industrielles. Des travaux antérieurs ont toutefois montré des limitations à ces modèles en terme de capacité de stockage et de temps de calcul, en raison du caractère discret de la variable temps de séjour. Une solution pourrait consister à considérer une variable de durée continue. Selon les avis d'experts, les variables de temps de séjour suivent une distribution de Weibull dans de nombreux systèmes. L'objectif de la thèse est d'intégrer des variables de temps de séjour suivant une distribution de Weibull dans un modèle de durée graphique en proposant une nouvelle approche. Après une présentation des réseaux bayésiens, et plus particulièrement des modèles graphiques de durée et leur limitation, ce rapport s'attache à présenter le nouveau modèle permettant la modélisation du processus de dégradation. Ce nouveau modèle est appelé modèle graphique de durée hybride Weibull. Un algorithme original permettant l'inférence dans un tel réseau a été mis en place. L'étape suivante a été la validation de l'approche. Ne disposant pas de données, il a été nécessaire de simuler des séquences d'états du système. Différentes bases de données ainsi construites ont permis d'apprendre d'un part un modèle graphique de durée, et d'autre part un modèle graphique de durée hybride-Weibull, afin de les comparer, que ce soit en terme de qualité d’apprentissage, de qualité d’inférence, de temps de calcul, et de capacité de stockage / Reliability analysis is an integral part of system design and operation, especially for systems running critical applications. Recent works have shown the interest of using Bayesian Networks in the field of reliability, for modeling the degradation of a system. The Graphical Duration Models are a specific case of Bayesian Networks, which make it possible to overcome the Markovian property of dynamic Bayesian Networks. They adapt to systems whose sojourn-time in each state is not necessarily exponentially distributed, which is the case for most industrial applications. Previous works, however, have shown limitations in these models in terms of storage capacity and computing time, due to the discrete nature of the sojourn time variable. A solution might be to allow the sojourn time variable to be continuous. According to expert opinion, sojourn time variables follow a Weibull distribution in many systems. The goal of this thesis is to integrate sojour time variables following a Weibull distribution in a Graphical Duration Model by proposing a new approach. After a presentation of the Bayesian networks, and more particularly graphical duration models, and their limitations, this report focus on presenting the new model allowing the modeling of the degradation process. This new model is called Weibull Hybrid Graphical Duration Model. An original algorithm allowing inference in such a network has been deployed. Various so built databases allowed to learn on one hand a Graphical Duration Model, and on an other hand a Graphical Duration Model Hybrid - Weibull, in order to compare them, in term of learning quality, of inference quality, of compute time, and of storage space
438

Optimization algorithms for video service delivery / Algorithmes d'optimisation de service vidéo

Abousabea, Emad Mohamed Abd Elrahman 12 September 2012 (has links)
L'objectif de cette thèse est de fournir des algorithmes d'optimisation pour l'accès aux services vidéo qu’ils soient non-gérés (Internet TV) ou gérés (IPTV). Nous étudions des statistiques récentes concernant les services vidéo non-gérés comme YouTube et nous proposons des techniques d'optimisation appropriées qui pourraient améliorer l'accès aux fichiers vidéos et réduire le coût de cet accès. En outre, l’analyse des coûts joue un rôle important dans les décisions qui concernent la mise en cache des fichiers vidéos et celles liées au choix des périodes temporelles d'hébergement de ces fichiers sur les serveurs. En ce qui concerne les services vidéo gérés appelés IPTV, nous avons mené des expériences sur une architecture ouverte IPTV-collaboration entre différents opérateurs. Ce modèle est analysé selon un critère de coût d’investissement et d'exploitation à l'intérieur de la sphère domestique. En outre, nous avons introduit une solution d’optimisation dynamique de l'arbre « minimum spanning tree » (MST) pour le service IPTV multicast. Lors d’un accès nomade, les arbres statiques pourraient être incapables de fournir le service de manière efficace vu que l'utilisation de la bande passante augmente aux côté des points de streaming (racines de la topologie). Finalement, nous étudions des mesures de sécurité fiables en streaming vidéo basées sur la méthodologie de la chaîne de hachage et nous proposons un nouvel algorithme hybride. Nous effectuons des comparaisons entre les différentes manières utilisées dans la réalisation de la fiabilité des chaînes de hachage basées sur les classifications génériques / The aim of this thesis is to provide optimization algorithms for accessing video services either in unmanaged or managed ways. We study recent statistics about unmanaged video services like YouTube and propose suitable optimization techniques that could enhance files accessing and reduce their access costs. Moreover, this cost analysis plays an important role in decision making about video files caching and hosting periods on the servers. Under managed video services called IPTV, we conducted experiments for an open-IPTV collaborative architecture between different operators. This model is analyzed in terms of CAPEX and OPEX costs inside the domestic sphere. Moreover, we introduced a dynamic way for optimizing the Minimum Spanning Tree (MST) for multicast IPTV service. In nomadic access, the static trees could be unable to provide the service in an efficient manner as the utilization of bandwidth increases towards the streaming points (roots of topologies). Finally, we study reliable security measures in video streaming based on hash chain methodology and propose a new algorithm. Then, we conduct comparisons between different ways used in achieving reliability of hash chains based on generic classifications
439

Cadres pour l'analyse multi-perspective des infrastructures critiques / Frameworks for the multi-perspective analysis of critical infrastructures

Han, Fangyuan 23 January 2018 (has links)
Les infrastructures critiques (CIs) sont essentielles au fonctionnement de la société moderne. Leur sécurité et leur fiabilité sont les principales préoccupations. La complexité des CIs exige des approches d'analyse de système capables de voir le problème de plusieurs points de vue. La présente thèse porte sur l'intégration de la perspective de contrôle dans l'analyse de sécurité et de fiabilité des éléments de configuration. L'intégration est d'abord abordée par examiner les propriétés de contrôle d'un microgrid d'alimentation électrique. Un schéma basé sur la simulation est développé pour l'analyse sous différentes perspectives : le service d'approvisionnement, la contrôlabilité et la topologie. Un cadre basé sur la commande prédictive (MPC) est proposé pour analyser le microrgrid dans divers scenarios de défaillance. Ensuite, un cadre multi-perspectif est développé pour analyser les CIs considérant le service d'approvisionnement, la contrôlabilité et la topologie. Ce cadre permet d'identifier le rôle des éléments de CIs et de quantifier les conséquences de scénarios de défaillances, par rapport aux différents perspectives considérées. Afin de présenter le cadre d'analyse, un réseau de transport de gaz réel à travers plusieurs pays de l'Union européenne est considéré comme une étude de cas. En fin, un cadre d'optimisation a trois objectifs est proposé pour la conception de CI : la topologie du réseau et l'allocation des capacités de liaison sont optimisées minimisant la demande non fournie et la complexité structurelle du système, et en même temps maximisant la contrôlabilité du système. Une investigation approfondie sur les multiples objectifs considérés est effectuée pour tirer des informations utiles pour la conception du système. Les résultats de cette thèse démontrent l'importance de développer du cadre d'analyse des CIs considérant de plusieurs perspectives pertinentes pour la conception, l'opération et la protection des CIs. / Critical infrastructures (CIs) provide essential goods and service for modern society. Their safety and reliability are primary concerns. The complexity of CIs calls for approaches of system analysis capable of viewing the problem from multiple perspectives. The focus of the present thesis is on the integration of the control perspective into the safety and reliability analysis of CIs. The integration is first approached by investigating the control properties of a small network system, i.e., an electric power microgrid. A simulation-based scheme is developed for the analysis from different perspectives: supply service, controllability and topology. An optimization-based model predictive control framework is proposed to analyze the microgrid under various failure scenarios. Then, a multi-perspective framework is developed to analyze CIs with respect to supply service, controllability and topology. This framework enables identifying the role of the CI elements and quantifying the consequences of scenarios of multiple failures, with respect to the different perspectives considered. To demonstrate the analysis framework, a benchmark network representative of a real gas transmission network across several countries of the European Union (EU) is considered as case study. At last, a multi-objective optimization framework is proposed for complex CIs design: design of network topology and allocation of link capacities are performed in an optimal way to minimize the non-supplied demand and the structural complexity of the system, while at the same time to maximize the system controllability. Investigation on the multiple objectives considered is performed to retrieve useful insights for system design. The findings of this thesis demonstrate the importance of developing frameworks of analysis of CIs that allow considering different perspectives relevant for CIs design, operation and protection.
440

Aircraft operational reliability : A model-based approach and case studies / Fiabilité opérationnelle des avoins : Approche basée sur les modèles et cas d'étude

Tiassou, Kossi Blewoussi 06 February 2013 (has links)
Lors de la conception des avions, il est courant que les constructeurs évaluent la sûreté de fonctionnement en utilisant des modèles stochastiques, mais l'évaluation de la fiabilité opérationnelle à l’aide de modèles en ligne, pendant la réalisation des missions, reste rarement effectuée. Souvent, l'évaluation stochastique concerne la sécurité des avions. Cette thèse porte sur la modélisation de la fiabilité opérationnelle des avions, pour aider à la planification des activités de maintenance et des missions, ainsi qu’à la bonne réalisation de ces dernières. Nous avons développé une approche de modélisation, basée sur un méta-modèle qui sert de base i) de structuration des informations nécessaires à l’évaluation de la fiabilité opérationnelle d’un avion et ii) pour la construction de modèles stochastiques pouvant être mis à jour dynamiquement. La mise à jour concerne l'état courant des systèmes avion, un profil de mission et les moyens de maintenance disponibles dans les diverses escales incluses dans le profil de la mission. L'objectif est de permettre l'évaluation de la fiabilité opérationnelle en ligne. Deux cas d’études, basés sur des sous-systèmes avion, sont considérés à titre d'illustration. Nous présentons des exemples de résultats qui montrent le rôle important de l’évaluation de la fiabilité opérationnelle pendant une mission d’avion / Dependability assessment, by system manufacturer, during aircraft design, based on stochastic modeling, is of common practice, but model based operational dependability assessment online, during missions' achievement, is seldom done. Usually, the stochastic assessment addresses aircraft safety.This thesis addresses aircraft operational dependability modeling to support mission and maintenance planning, as well as the achievement of the missions. We develop a modeling approach, based on a meta-model that is used as a basis i) to structure the information needed to assess aircraft operational reliability and ii) to build a stochastic model that can be updated dynamically. The update concerns the current state of the aircraft system, a mission profile and the maintenance facilities available at the flight stop locations involved in the mission. The aim is to enable operational reliability assessment online. Two case studies, based on aircraft subsystems, are considered for illustration. We present examples of evaluation results that show the valuable role of operational dependability assessment during aircraft mission

Page generated in 0.0624 seconds