• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 11
  • 9
  • 7
  • 6
  • 6
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 162
  • 162
  • 34
  • 33
  • 30
  • 28
  • 27
  • 24
  • 23
  • 20
  • 20
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Intégration et fiabilité d'un disjoncteur statique silicium intelligent haute température pour application DC basse et moyenne tensions / Integration and reliability of a smart solid state circuit breaker for high temperature designed for low and medium DC voltage.

Roder, Raphaël 04 December 2015 (has links)
Cette thèse présente l'étude et la réalisation d'un disjoncteur statique tout silicium et intelligent pouvant fonctionner à haute température (200°C) pour des applications de type DC basse et moyenne tensions. Plusieurs applications dans l’aéronautique, l’automobile et les transports ferroviaires poussent les composants à semi-conducteur de puissance à être utilisés à haute température. Cependant, les Si-IGBT et Si-CoolMOSTM actuellement commercialisés ont une température de jonction spécifiée et estimée à 150°C et quelque fois à 175°C. L’une des faiblesses des convertisseurs provient de la réduction du rendement avec l’augmentation de la température de jonction des composants à semiconducteur de puissance qui peut amener à leur destruction. La solution serait d’utiliser des composants grand-gap (SiC, GaN), qui autorisent un fonctionnement à une température de jonction plus élevée ;mais ces technologies en plein essor ont un coût relativement élevé. Une solution alternative serait de faire fonctionner des composants en silicium à une température de jonction voisine de 200°C afin de conserver l’un des principaux intérêts du silicium en termes de coût. Avant de commencer, le premier chapitre portera sur un état de l’art des différentes techniques de protection aussi bien mécanique que statique afin d’identifier les éléments essentiels pour la réalisation du circuit de protection. Les disjoncteurs hybrides seront aussi abordés afin de voir comment ceux-ci arrivent à combler les lacunes des disjoncteurs mécaniques et purement électroniques (statiques). A partir du chapitre précédent, un disjoncteur statique intelligent de faible puissance sera réalisé afin de mieux cerner les différentes difficultés qui sont liées à ce type de disjoncteur. Le disjoncteur statique sera réalisé à partir de fonction analogique de telle façon à ce qui soit autonome et bas cout. Il en ressort que les inductances parasites ainsi que la température des composants à base de semi-conducteurs ont un impact significatif lors de la coupure.Le chapitre III portera sur une analyse non exhaustive, vis-à-vis de la température, de différents types d’interrupteurs contrôlés à base de semi-conducteur de puissance en s’appuyant sur plusieurs caractérisations électriques (test de conduction, tension de seuil, etc) afin de sélectionner le type d’interrupteur de puissance qui sera utilisé pour le chapitre IV. Comme il sera démontré, les composants silicium à super jonction peuvent se rapprocher du comportement des composants à base de carbure de silicium pour les basses puissances. Un disjoncteur statique 400V/63A (courant de court-circuit prédictible de 5kA) sera étudié et 4développé afin de mettre en pratique ce qui a été précédemment acquis et pour montrer la compétitivité du silicium pour cette gamme de puissance. / This thesis presents a study about a smart solid state circuit breaker which can work at 200°C forlow and medium voltage continuous applications. Some applications in aeronautics, automotive,railways, petroleum extraction push power semiconductor devices to operate at high junctiontemperature. However, current commercially available Si-IGBT and Si-CoolMOS have basically amaximum junction temperature specified and rated at 150°C and even 175°C. Indeed, the main problemin conventional DC-DC converters is the switching losses of power semiconductor devices (linked to thetemperature influence on carrier lifetime, on-state voltage, on-resistance and leakage current) whichdrastically increase with the temperature rise and may drive to the device failure. Then, the use of wideband gap semiconductor like SiC or GaN devices allows higher junction temperature operation (intheory about 500°C) and higher integration (smaller heatsink, higher switching frequency, smallconverter), but are still under development and are expensive technologies. In order to keep theadvantage of low cost silicon devices, a solution is to investigate the feasibility to operate such devicesat junction temperature up to 200°C.Before starting the first starting chapter is a stat of the art of protectives circuit technics as well asmechanics as statics in order to identify essentials elements to develop the protective circuit. Hybridprotective circuits are approached too.From the precedent chapter, a smart and low power solid state circuit breaker is realized to identifyproblems which are linked with this type of circuit breaker. Solid state circuit breaker is developed withanalog components in a way that is autonomous and low cost. It’s follow that stray inductance andtemperature have an important impact when a default occurs.Chapter III give an analyze on different silicon power semiconductor dice towards temperature5relying on statics and dynamics characteristics in order to find the best silicon power switch which beused in the chapter IV. It has been shown that super junction MOSFET has the same behavior at lowpower than silicon carbide MOSFET.Solid state circuit breaker (400V/63A) has been studied and developed, in order to use all theknowledge previously acquired and to show the competitively of the silicon for this power range.
142

Computer experiments: design, modeling and integration

Qian, Zhiguang 19 May 2006 (has links)
The use of computer modeling is fast increasing in almost every scientific, engineering and business arena. This dissertation investigates some challenging issues in design, modeling and analysis of computer experiments, which will consist of four major parts. In the first part, a new approach is developed to combine data from approximate and detailed simulations to build a surrogate model based on some stochastic models. In the second part, we propose some Bayesian hierarchical Gaussian process models to integrate data from different types of experiments. The third part concerns the development of latent variable models for computer experiments with multivariate response with application to data center temperature modeling. The last chapter is devoted to the development of nested space-filling designs for multiple experiments with different levels of accuracy.
143

A multi-resolution discontinuous Galerkin method for rapid simulation of thermal systems

Gempesaw, Daniel 29 August 2011 (has links)
Efficient, accurate numerical simulation of coupled heat transfer and fluid dynamics systems continues to be a challenge. Direct numerical simulation (DNS) packages like FLU- ENT exist and are sufficient for design and predicting flow in a static system, but in larger systems where input parameters can change rapidly, the cost of DNS increases prohibitively. Major obstacles include handling the scales of the system accurately - some applications span multiple orders of magnitude in both the spatial and temporal dimensions, making an accurate simulation very costly. There is a need for a simulation method that returns accurate results of multi-scale systems in real time. To address these challenges, the Multi- Resolution Discontinuous Galerkin (MRDG) method has been shown to have advantages over other reduced order methods. Using multi-wavelets as the local approximation space provides an inherently efficient method of data compression, while the unique features of the Discontinuous Galerkin method make it well suited to composition with wavelet theory. This research further exhibits the viability of the MRDG as a new approach to efficient, accurate thermal system simulations. The development and execution of the algorithm will be detailed, and several examples of the utility of the MRDG will be included. Comparison between the MRDG and the "vanilla" DG method will also be featured as justification of the advantages of the MRDG method.
144

Dynamic thermal response of the data center to cooling loss during facility power failure

Shields, Shawn 01 July 2009 (has links)
Provisioning for power failure is an important element of data center design. It is important to assess both tangible and intangible costs of unplanned data center downtime. These costs must be compared with the capital cost of providing various levels of backup power infrastructure to compute and cooling equipment. Various levels of backup power infrastructure each lead to a most probable transient scenario after utility power failure. Because of differences between facilities, the level of risk that unacceptable compute equipment inlet temperature associated with each level of backup power infrastructure is not standardized; in particular, facilities with differing compute equipment power densities may require different levels of backup power infrastructure to maintain safe operation. Choosing one level of backup power infrastructure above another is not necessarily obvious for every facility, as there may be large gaps in costs and unknown levels of risk for lower levels of provisioning. A first order model is also used to compare inclusion of various thermal capacitance values with experimental results. Room level experiments also illustrate the relative level of risk associated with various levels of provisioning for the same control volume and compute equipment. Although provisioning to back up as much equipment as possible remains the "safest" solution, cost will continue to play a factor in facility design decisions. This work offers a step toward appropriate modeling of data center power failure events and suggests further steps to continue the process.
145

Réseaux optiques en mode paquet pour les connexions internes à un centre de données / Packet-Optical Networks for Intra-Data-Center Connections

Dumas feris, Barbara Pilar 22 December 2017 (has links)
La consommation d'énergie des centres de données est un enjeu majeur. Leurs communications internes représentent près du quart de cette consommation. Les technologies de commutation optique ont en principe une meilleure efficacité énergétique que les solutions actuelles. Ce travail porte sur les réseaux optiques en mode paquet pour des centres de données de petite et moyenne taille. Il s'est déroulé dans le cadre du projet EPOC (Energy Proportional and Opportunistic Computing) qui s'intéresse à la réduction de la consommation d'énergie d'un centre de données alimenté partiellement par des sources renouvelables. Une hypothèse clé est l'absence d'un réseau de stockage dédié réduisant ainsi la consommation des interconnexions. Par contre, afin de pouvoir éteindre certains serveurs selon la charge de travail et l'énergie disponible, le débit doit être de l'ordre de 100 Gbit/s. Après un état de l'art des réseaux optiques pour centre de données nous choisissons une solution reposant sur une infrastructure entièrement passive et des émetteurs rapidement accordables en longueur d'onde, proposée récemment dans la littérature (POPI).Nous étudions les limitations dues aux composants (pertes d'insertion, plage d'accord et espacement des canaux). Nous proposons une extension (E-POPI) qui permet d'augmenter le nombre de serveurs connectés en utilisant plusieurs plages de longueurs d'onde. Pour les centres de données de plus grande taille nous proposons un réseau à deux étages (intra- et inter-racks) opérant respectivement dans les bandes C et L, POPI+. La connexion entre étages se fait via une passerelle transparente dans un sens et opaque dans l'autre. Différentes solutions de contrôle des deux étages sont détaillées.Un des éléments essentiels de faisabilité de ces architectures est de concilier la montée en débit avec les pertes du réseau passif d'interconnexion. Les techniques cohérentes des transmissions longue distance ne sont pas actuellement envisageables pour un centre de données. Nous avons donc étudié les formats PAM 4 et 8, par simulation avec différents débits (jusqu'à 112 Gbit/s et récepteurs (PIN, APD et SOA-PIN) et aussi, expérimentalement, à 12 et 18 Gbit/s. Nous avons développé une méthode de compensation des distorsions générées par les différents composants qui procure un compromis entre précision de correction et temps de calcul.Ces résultats nous permettent de déterminer les pertes d'insertion tolérables. Nous les combinons avec les limitations liées à la plage d'accord des émetteurs et à l'encombrement spectral des canaux occupant des fenêtres multiples de 12,5 GHz pour dimensionner les différentes architectures. Les réseaux POPI, E-POPI et POPI+ permettent respectivement la connexion de 48, 99 et 2352 entités à 112 Gbit/s. Nos évaluations tiennent compte d'une possible dispersion des caractéristiques des principaux composants. / Data-center energy consumption is nowadays a major issue. Intra-data-center networking accounts almost for a quarter of the data-center total power consumption. Optical switching technologies could provide higher power efficiency than current solutions based on electrical-packet switching. This work focuses on optical-packet-switched networks for small- and medium-size data centers. It takes part of the EPOC (Energy-Proportional and Opportunistic Computing) project, which main interest consists on reducing the overall power consumption of a data center partially powered by renewable sources. A key assumption is that our data center does not rely on a dedicated storage network, in order to reduce the consumption of those interconnections. In addition, with the aim of being able to turn off some servers according to the workload and the available energy, the bit rate must be close to 100 Gbit/s. We have chosen, after studying the state of the art of data-center interconnects, a purely passive network architecture based on fast-wavelength-tunable transmitters under the name of POPI.We study POPI's limitations due to its components (insertion loss, tuning range and channel spacing). We then propose an extension called E-POPI that allows to increase the number of connected servers by using several transmission bands. For larger data centers, we propose POPI+, a two-stage infrastructure for intra- and inter-rack communications operating in the C and L bands, respectively. The connection between both stages is done via a transparent gateway in one direction and an opaque one in the other. We discuss different control solutions for both stages.The feasibility of these architectures depends on, among other factors, dealing with bit-rate increasing and power losses of a passive interconnect. Coherent long-distance-transmission techniques are not currently suited to data centers. We therefore studied PAM 4 and 8 modulation formats with direct detection. On one hand, by simulation, with different bit rates (up to 112 Gbit/s) and receivers (PIN, APD and SOA-PIN) and, on the other hand, experimentally, at 12 and 18 Gbit/s. We have developed a method for compensating the distortions generated by the different network components. Our method takes into account a good tradeoff between correction accuracy and computation time.Simulation results allow us to determine the amount of insertion loss that may be supported. We then combine these results with the limitations of transmitters-tuning range and channel spacing using multiple of 12.5 GHz slots for dimensioning the proposed architectures. POPI, E-POPI and POPI+ interconnects allow the connection of 48, 99 and 2352 entities, respectively, at 112 Gbit/s. Our assessments take into account a potential dispersion of the characteristics of the main architecture components.
146

LAPSync : a Location-Aware Protocol for Remote File Synchronization

Igugu Onajite, Johnson January 2012 (has links)
Commercial provisioning of file synchronization services (FSS) relies entirely on protocols that utilize a remote central server that is often located in the cloud to host important files. Updates at user computers are propagated to the central server and from the central server to other sources in need of such updates. Therefore, a synchronization operation between two computers located on the same network often results in file data transmission to and from this local network at least twice. This introduces an unnecessary bandwidth usage on a user’s local network and has become an issue, especially since there is an increase in the demands for internet resources. This thesis work presents a new file synchronization protocol towards FSS known as LAPSync (location-aware protocol for remote file synchronization). This paper also proposes a hierarchical synchronization mechanism by utilizing LAPSync. Our proposed solution relies on the ability of LAPSync clients to acquire knowledge about the location of clients participating in the synchronization operation to construct a hierarchical synchronization path. Finally, we implement our protocol into a prototype and conduct experiments to compare with drop-box (a popular file synchronization service). The results obtained show that LAPSync offers a reduction in bandwidth usage when the files to be synchronized exist on the same local network
147

Mitteilungen des URZ 3/2009

Clauß, Matthias, Müller, Thomas, Riedel, Wolfgang, Schier, Thomas, Vodel, Matthias 31 August 2009 (has links)
Informationen des Universitätsrechenzentrums:Aktuelles zum Dienst 'Server Housing' Neue Technologien im Data-Center Öffentliche Computerpools Interaktives Gebäudeleit- und Infotainmentsystem Kurzinformationen: Personalia, Neue Firefox-Versionen enthalten unser Zertifikat, Vokabeln lernen mit Beolingus Software-News: ANSYS 12.0 verfügbar, Update SimulationX 3.2, Pro/ENGINEER Manikin verfügbar
148

Diseño de una infraestructura centralizada de servidores virtuales en el centro de datos de una empresa pesquera / Design of a centralized infrastructure of virtual servers in the data center of a fishing company

Castañeda Alanya, Elmer Alfonso 17 April 2021 (has links)
El presente trabajo de tesis se ha orientado al desarrollo de un estudio encaminado a diseñar un sistema que permita centralizar servidores a través de una plataforma virtual, con el objeto de ofrecer soporte a servicios y aplicaciones fundamentales dentro de una empresa determinada. En el capítulo I, se incluye la entidad objeto de estudio a la cual será destinado el proyecto. Igualmente, se describirá el entorno organizacional de dicha empresa. Posteriormente, se identifica la problemática existente, se define el objetivo general y los específicos, finalizando con la justificación en el diseño del presente proyecto. Respecto al siguiente apartado, se presenta el capítulo II, en el cual se despliega un marco teórico que incluye la data obtenida con relación a la teoría fundamental y requerida para apoyar la realización del presente proyecto. En relación con el capítulo III, constituye un apartado del proyecto en el que se sustenta la problemática evidenciada en el capítulo I, mediante información precisa y necesaria para el estudio de su trascendencia, incluyendo la caracterización y justificación de las exigencias del proyecto. El capítulo IV aborda las características esenciales del propio diseño que se plantea para solucionar el problema existente, mediante la creación de una plataforma de virtualización de los servidores. Finalmente, se muestran los resultados, así como también las validaciones del proyecto, que permiten comprobar el alcance de los objetivos propuestos en función de los indicadores que determinan el resultado esperado. / The present thesis work has been oriented to the development of a study aimed at designing a system that allows to centralize servers through a virtual platform, in order to offer support to fundamental services and applications within a given company. Chapter I includes the entity under study to which the project will be assigned. Likewise, the organizational environment of said company will be described. Subsequently, the existing problem is identified, the general and specific objectives are defined, ending with the justification in the design of this project. Regarding the following section, chapter II is presented, in which a theoretical framework is displayed that includes the data obtained in relation to the fundamental theory and required to support the realization of this project. In relation to chapter III, it constitutes a section of the project in which the problems evidenced in chapter I is based, through precise and necessary information for the study of its significance, including the characterization and justification of the project's requirements. Chapter IV addresses the essential characteristics of the design itself that arises to solve the existing problem, through the creation of a server virtualization platform. Finally, the results are shown, as well as the validations of the project, which allow verifying the scope of the proposed objectives based on the indicators that determine the expected result. / Tesis
149

Artificial Intelligence for Data Center Power Consumption Optimisation / Artificiell Intelligens för Energikonsumtionsoptimering i Datacenter

Lundin, Lowe January 2021 (has links)
The aim of the project was to implement a machine learning model to optimise the power consumption of Ericsson’s Kista data center. The approach taken was to use a Reinforcement Learning agent trained in a simulation environment based on data specific to the data center. In this manner, the machine learning model could find interactions between parameters, both general and site specific in ways that a sophisticated algorithm designed by a human never could. In this work it was found that a neural network can effectively mimic a real data center and that the Reinforcement Learning policy "TD3" could, within the simulated environment, consistently and convincingly outperform the control policy currently in use at Ericsson’s Kista data center.
150

Resource allocation optimization algorithms for infrastructure as a service in cloud computing / Algorithmes d'optimisation du processus d'allocation de ressources pour l'infrastructure en tant que service en informatique en nuage

Salazar, Javier 27 October 2016 (has links)
L’informatique, le stockage des données et les applications à la demande font partie des services offerts par l’architecture informatique en Nuage. Dans ce cadre, les fournisseurs de nuage (FN) agissent non seulement en tant qu’administrateurs des ressources d'infrastructure mais ils profitent aussi financièrement de la location de ces ressources. Dans cette thèse, nous proposons trois modèles d'optimisation du processus d'allocation des ressources dans le nuage dans le but de réduire les coûts générés et d’accroitre la qualité du service rendu. Cela peut être accompli en fournissant au FN les outils formels nécessaires pour réduire au minimum le prix des ressources dédiées à servir les requêtes des utilisateurs. Ainsi, la mise en œuvre des modèles proposés permettra non seulement l’augmentation des revenus du FN, mais aussi l’amélioration de la qualité des services offerts, ce qui enrichira l’ensemble des interactions qui se produisent dans le nuage. A cet effet, nous nous concentrons principalement sur les ressources de l’infrastructure en tant que service (IaaS), lesquels sont contenus dans des centres de données (DCs), et constituent l'infrastructure physique du nuage. Comme une alternative aux immenses DCs centralisés, la recherche dans ce domaine comprend l’installation de petits centres de données (Edge DCs) placés à proximité des utilisateurs finaux. Dans ce contexte nous adressons le problème d’allocation des ressources et pour ce faire nous utilisons la technique d'optimisation nommée génération de colonnes. Cette technique nous permet de traiter des modèles d'optimisation à grande échelle de manière efficace. La formulation proposée comprend à la fois, et dans une seule phase, les communications et les ressources informatiques à optimiser dans le but de servir les requêtes de service d'infrastructure. Sur la base de cette formulation, nous proposons également un deuxième modèle qui comprend des garanties de qualité de service toujours sous la même perspective d'allocation des ressources d’infrastructure en tant que service. Ceci nous permet de fournir plusieurs solutions applicables à divers aspects du même problème, tels que le coût et la réduction des délais, tout en offrant différents niveaux de service. En outre, nous introduisons le scénario informatique en nuage multimédia, qui, conjointement avec l'architecture des Edge DCs, résulte en l'architecture Multimédia Edge Cloud (MEC). Dans ce cadre, nous proposons une nouvelle approche pour l'allocation des ressources dans les architectures informatique en nuage multimédia lors du positionnement de ces DCs afin de réduire les problèmes liés à la communication, tels que la latence et la gigue. Dans cette formulation, nous proposons également de mettre en œuvre des technologies optiques de réseau de fibres pour améliorer les communications entre les DCs. Plusieurs travaux ont proposé de nouvelles méthodes pour améliorer la performance et la transmission de données. Dans nos travaux, nous avons décidé de mettre en œuvre le multiplexage en longueur d'onde (WDM) pour renforcer l'utilisation des liens et les chemins optiques dans le but de grouper différents signaux sur la même longueur d'onde. Un environnement de simulation réel est également présenté pour l’évaluation des performances et de l'efficacité des approches proposées. Pour ce faire, nous utilisons le scénario spécifié pour les DCs, et nous comparons par simulation nos modèles au moyen de différents critères de performances tel que l'impact de la formulation optique sur la performance du réseau. Les résultats numériques obtenus ont montré que, en utilisant nos modèles, le FN peut efficacement réduire les coûts d'allocation en maintenant toujours un niveau satisfaisant quant à l'acceptation de requêtes et la qualité du service. / The cloud architecture offers on-demand computing, storage and applications. Within this structure, Cloud Providers (CPs) not only administer infrastructure resources but also directly benefit from leasing them. In this thesis, we propose three optimization models to assist CPs reduce the costs incurred in the resource allocation process when serving users’ demands. Implementing the proposed models will not only increase the CP’s revenue but will also enhance the quality of the services offered, benefiting all parties. We focus on Infrastructure as a Service (IaaS) resources which constitute the physical infrastructure of the cloud and are contained in datacenters (DCs). Following existing research in DC design and cloud computing applications, we propose the implementation of smaller DCs (Edge DCs) be located close to end users as an alternative to large centralized DCs. Lastly, we use the Column Generation optimization technique to handle large scale optimization models efficiently. The proposed formulation optimizes both the communications and information technology resources in a single phase to serve IaaS requests. Based on this formulation, we also propose a second model that includes QoS guarantees under the same Infrastructure as a Service resource allocation perspective, to provide different solutions to diverse aspects of the resource allocation problem such as cost and delay reduction while providing different levels of service. Additionally, we consider the multimedia cloud computing scenario. When Edge DCs architecture is applied to this scenario it results in the creation of the Multimedia Edge Cloud (MEC) architecture. In this context we propose a resource allocation approach to help with the placement of these DCs to reduce communication related problems such as jitter and latency. We also propose the implementation of optical fiber network technologies to enhance communication between DCs. Several studies can be found proposing new methods to improve data transmission and performance. For this study, we decided to implement Wavelength Division Multiplexing (WDM) to strengthen the link usage and light-paths and, by doing so, group different signals over the same wavelength. Using a realistic simulation environment, we evaluate the efficiency of the approaches proposed in this thesis using a scenario specifically designed for the DCs, comparing them with different benchmarks and also simulating the effect of the optical formulation on the network performance. The numerical results obtained show that by using the proposed models, a CP can efficiently reduce allocation costs while maintaining satisfactory request acceptance and QoS ratios.

Page generated in 0.0775 seconds