• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 149
  • 24
  • 19
  • 12
  • 8
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 269
  • 96
  • 82
  • 74
  • 67
  • 47
  • 37
  • 35
  • 31
  • 30
  • 28
  • 26
  • 25
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Computer Aided Analysis of IHC and H&E Stained Histopathological Images in Lymphoma and Lupus

Samsi, Siddharth Sadanand 20 June 2012 (has links)
No description available.
232

Memory Turbo Boost: Architectural Support for Using Unused Memory for Memory Replication to Boost Server Memory Performance

Zhang, Da 28 June 2023 (has links)
A significant portion of the memory in servers today is often unused. Our large-scale study of HPC systems finds that more than half of the total memory in active nodes running user jobs are unused for 88% of the time. Google and Azure Cloud studies also report unused memory accounts for 40% of the total memory in their servers, on average. Leaving so much memory unused is wasteful. To address this problem, we note that in the context of CPUs, Turbo Boost can turn off the unused cores to boost the performance of in-use cores. However, there is no equivalent technology in the context of memory; no matter how much memory is unused, the performance of in-use memory remains the same. This dissertation explores architectural techniques to utilize the unused memory to boost the performance of in-use memory and refer to them collectively as Memory Turbo Boost. This dissertation explores how to turbo boost memory performance through memory replication; specifically, it explores how to efficiently store the replicas in the unused memory and explores multiple architectural techniques to utilize the replicas to enhance memory system performance. Performance simulations show that Memory Turbo Boost can improve node-level performance by 18%, on average across a wide spectrum of workloads. Our system-wide simulations show applying Memory Turbo Boost to an HPC system provides 1.4x average speedup on job turnaround time. / Doctor of Philosophy / Today's servers often have a significant portion of their memory unused. Our large-scale study of HPC systems finds that more than half of the total memory of an HPC server is unused for most of the time; Google and Azure Cloud studies find that 40% of the total memory in their servers is often unused. Today's servers usually have 100s of GBs to TB memory; 40% unused memory means 10s-100s of GBs unused memory on the servers. Leaving so much memory unused is wasteful. To address this problem, I note that there are techniques to leverage unused hardware resources to improve the performance of in-use resources in other types of hardware. For example, CPU Turbo Boost can turn off the unused cores to boost the performance of in-use cores; modern SSDs can use the unused space to switch the Multi-Level Cell blocks to Single-Level Cell blocks to boost performance. However, there is no equivalent technology in the context of memory; no matter how much memory is unused, the performance of in-use memory remains the same. This dissertation explores techniques to utilize the unused memory to boost the performance of in-use memory and refer to them collectively as Memory Turbo Boost. Performance evaluations show that Memory Turbo Boost can provide up to 18% average performance improvement.
233

Improving Performance and Energy Efficiency of Heterogeneous Systems with rCUDA

Prades Gasulla, Javier 14 June 2021 (has links)
Tesis por compendio / [ES] En la última década la utilización de la GPGPU (General Purpose computing in Graphics Processing Units; Computación de Propósito General en Unidades de Procesamiento Gráfico) se ha vuelto tremendamente popular en los centros de datos de todo el mundo. Las GPUs (Graphics Processing Units; Unidades de Procesamiento Gráfico) se han establecido como elementos aceleradores de cómputo que son usados junto a las CPUs formando sistemas heterogéneos. La naturaleza masivamente paralela de las GPUs, destinadas tradicionalmente al cómputo de gráficos, permite realizar operaciones numéricas con matrices de datos a gran velocidad debido al gran número de núcleos que integran y al gran ancho de banda de acceso a memoria que poseen. En consecuencia, aplicaciones de todo tipo de campos, tales como química, física, ingeniería, inteligencia artificial, ciencia de materiales, etc. que presentan este tipo de patrones de cómputo se ven beneficiadas, reduciendo drásticamente su tiempo de ejecución. En general, el uso de la aceleración del cómputo en GPUs ha significado un paso adelante y una revolución. Sin embargo, no está exento de problemas, tales como problemas de eficiencia energética, baja utilización de las GPUs, altos costes de adquisición y mantenimiento, etc. En esta tesis pretendemos analizar las principales carencias que presentan estos sistemas heterogéneos y proponer soluciones basadas en el uso de la virtualización remota de GPUs. Para ello hemos utilizado la herramienta rCUDA, desarrollada en la Universitat Politècnica de València, ya que multitud de publicaciones la avalan como el framework de virtualización remota de GPUs más avanzado de la actualidad. Los resutados obtenidos en esta tesis muestran que el uso de rCUDA en entornos de Cloud Computing incrementa el grado de libertad del sistema, ya que permite crear instancias virtuales de las GPUs físicas totalmente a medida de las necesidades de cada una de las máquinas virtuales. En entornos HPC (High Performance Computing; Computación de Altas Prestaciones), rCUDA también proporciona un mayor grado de flexibilidad de uso de las GPUs de todo el clúster de cómputo, ya que permite desacoplar totalmente la parte CPU de la parte GPU de las aplicaciones. Además, las GPUs pueden estar en cualquier nodo del clúster, independientemente del nodo en el que se está ejecutando la parte CPU de la aplicación. En general, tanto para Cloud Computing como en el caso de HPC, este mayor grado de flexibilidad se traduce en un aumento hasta 2x de la productividad de todo el sistema al mismo tiempo que se reduce el consumo energético en un 15%. Finalmente, también hemos desarrollado un mecanismo de migración de trabajos de la parte GPU de las aplicaciones que ha sido integrado dentro del framework rCUDA. Este mecanismo de migración ha sido evaluado y los resultados muestran claramente que, a cambio de una pequeña sobrecarga, alrededor de 400 milisegundos, en el tiempo de ejecución de las aplicaciones, es una potente herramienta con la que, de nuevo, aumentar la productividad y reducir el gasto energético del sistema. En resumen, en esta tesis se analizan los principales problemas derivados del uso de las GPUs como aceleradores de cómputo, tanto en entornos HPC como de Cloud Computing, y se demuestra cómo a través del uso del framework rCUDA, estos problemas pueden solucionarse. Además se desarrolla un potente mecanismo de migración de trabajos GPU, que integrado dentro del framework rCUDA, se convierte en una herramienta clave para los futuros planificadores de trabajos en clusters heterogéneos. / [CA] En l'última dècada la utilització de la GPGPU(General Purpose computing in Graphics Processing Units; Computació de Propòsit General en Unitats de Processament Gràfic) s'ha tornat extremadament popular en els centres de dades de tot el món. Les GPUs (Graphics Processing Units; Unitats de Processament Gràfic) s'han establert com a elements acceleradors de còmput que s'utilitzen al costat de les CPUs formant sistemes heterogenis. La naturalesa massivament paral·lela de les GPUs, destinades tradicionalment al còmput de gràfics, permet realitzar operacions numèriques amb matrius de dades a gran velocitat degut al gran nombre de nuclis que integren i al gran ample de banda d'accés a memòria que posseeixen. En conseqüència, les aplicacions de tot tipus de camps, com ara química, física, enginyeria, intel·ligència artificial, ciència de materials, etc. que presenten aquest tipus de patrons de còmput es veuen beneficiades reduint dràsticament el seu temps d'execució. En general, l'ús de l'acceleració del còmput en GPUs ha significat un pas endavant i una revolució, però no està exempt de problemes, com ara poden ser problemes d'eficiència energètica, baixa utilització de les GPUs, alts costos d'adquisició i manteniment, etc. En aquesta tesi pretenem analitzar les principals mancances que presenten aquests sistemes heterogenis i proposar solucions basades en l'ús de la virtualització remota de GPUs. Per a això hem utilitzat l'eina rCUDA, desenvolupada a la Universitat Politècnica de València, ja que multitud de publicacions l'avalen com el framework de virtualització remota de GPUs més avançat de l'actualitat. Els resultats obtinguts en aquesta tesi mostren que l'ús de rCUDA en entorns de Cloud Computing incrementa el grau de llibertat del sistema, ja que permet crear instàncies virtuals de les GPUs físiques totalment a mida de les necessitats de cadascuna de les màquines virtuals. En entorns HPC (High Performance Computing; Computació d'Altes Prestacions), rCUDA també proporciona un major grau de flexibilitat en l'ús de les GPUs de tot el clúster de còmput, ja que permet desacoblar totalment la part CPU de la part GPU de les aplicacions. A més, les GPUs poden estar en qualsevol node del clúster, sense importar el node en el qual s'està executant la part CPU de l'aplicació. En general, tant per a Cloud Computing com en el cas del HPC, aquest major grau de flexibilitat es tradueix en un augment fins 2x de la productivitat de tot el sistema al mateix temps que es redueix el consum energètic en aproximadament un 15%. Finalment, també hem desenvolupat un mecanisme de migració de treballs de la part GPU de les aplicacions que ha estat integrat dins del framework rCUDA. Aquest mecanisme de migració ha estat avaluat i els resultats mostren clarament que, a canvi d'una petita sobrecàrrega, al voltant de 400 mil·lisegons, en el temps d'execució de les aplicacions, és una potent eina amb la qual, de nou, augmentar la productivitat i reduir la despesa energètica de sistema. En resum, en aquesta tesi s'analitzen els principals problemes derivats de l'ús de les GPUs com acceleradors de còmput, tant en entorns HPC com de Cloud Computing, i es demostra com a través de l'ús del framework rCUDA, aquests problemes poden solucionar-se. A més es desenvolupa un potent mecanisme de migració de treballs GPU, que integrat dins del framework rCUDA, esdevé una eina clau per als futurs planificadors de treballs en clústers heterogenis. / [EN] In the last decade the use of GPGPU (General Purpose computing in Graphics Processing Units) has become extremely popular in data centers around the world. GPUs (Graphics Processing Units) have been established as computational accelerators that are used alongside CPUs to form heterogeneous systems. The massively parallel nature of GPUs, traditionally intended for graphics computing, allows to perform numerical operations with data arrays at high speed. This is achieved thanks to the large number of cores GPUs integrate and the large bandwidth of memory access. Consequently, applications of all kinds of fields, such as chemistry, physics, engineering, artificial intelligence, materials science, and so on, presenting this type of computational patterns are benefited by drastically reducing their execution time. In general, the use of computing acceleration provided by GPUs has meant a step forward and a revolution, but it is not without problems, such as energy efficiency problems, low utilization of GPUs, high acquisition and maintenance costs, etc. In this PhD thesis we aim to analyze the main shortcomings of these heterogeneous systems and propose solutions based on the use of remote GPU virtualization. To that end, we have used the rCUDA middleware, developed at Universitat Politècnica de València. Many publications support rCUDA as the most advanced remote GPU virtualization framework nowadays. The results obtained in this PhD thesis show that the use of rCUDA in Cloud Computing environments increases the degree of freedom of the system, as it allows to create virtual instances of the physical GPUs fully tailored to the needs of each of the virtual machines. In HPC (High Performance Computing) environments, rCUDA also provides a greater degree of flexibility in the use of GPUs throughout the computing cluster, as it allows the CPU part to be completely decoupled from the GPU part of the applications. In addition, GPUs can be on any node in the cluster, regardless of the node on which the CPU part of the application is running. In general, both for Cloud Computing and in the case of HPC, this greater degree of flexibility translates into an up to 2x increase in system-wide throughput while reducing energy consumption by approximately 15%. Finally, we have also developed a job migration mechanism for the GPU part of applications that has been integrated within the rCUDA middleware. This migration mechanism has been evaluated and the results clearly show that, in exchange for a small overhead of about 400 milliseconds in the execution time of the applications, it is a powerful tool with which, again, we can increase productivity and reduce energy foot print of the computing system. In summary, this PhD thesis analyzes the main problems arising from the use of GPUs as computing accelerators, both in HPC and Cloud Computing environments, and demonstrates how thanks to the use of the rCUDA middleware these problems can be addressed. In addition, a powerful GPU job migration mechanism is being developed, which, integrated within the rCUDA framework, becomes a key tool for future job schedulers in heterogeneous clusters. / This work jointly supported by the Fundación Séneca (Agencia Regional de Ciencia y Tecnología, Región de Murcia) under grants (20524/PDC/18, 20813/PI/18 and 20988/PI/18) and by the Spanish MEC and European Commission FEDER under grants TIN2015-66972-C5-3-R, TIN2016-78799-P and CTQ2017-87974-R (AEI/FEDER, UE). We also thank NVIDIA for hardware donation under GPU Educational Center 2014-2016 and Research Center 2015-2016. The authors thankfully acknowledge the computer resources at CTE-POWER and the technical support provided by Barcelona Supercomputing Center - Centro Nacional de Supercomputación (RES-BCV-2018-3-0008). Furthermore, researchers from Universitat Politècnica de València are supported by the Generalitat Valenciana under Grant PROMETEO/2017/077. Authors are also grateful for the generous support provided by Mellanox Technologies Inc. Prof. Pradipta Purkayastha, from Department of Chemical Sciences, Indian Institute of Science Education and Research (IISER) Kolkata, is acknowledged for kindly providing the initial ligand and DNA structures. / Prades Gasulla, J. (2021). Improving Performance and Energy Efficiency of Heterogeneous Systems with rCUDA [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168081 / Compendio
234

INESTABILIDAD DE BARRAS COMPRIMIDAS DE ACERO Y DE SMA EN ELEMENTOS DE HORMIGÓN FABRICADOS CON NUEVOS MATERIALES. RECOMENDACIONES DE DISEÑO

Pereiro Barceló, Javier 07 November 2017 (has links)
The strain capacity of structures depends on the plastic hinge behaviour. There are different proposals in the scientific literature in order to improve this behaviour in reinforced concrete structures such as the following ones: proposals include the use of fiber reinforced concrete, very high performance concrete or replacing in the critical structure zone, the steel reinforcement with shape memory alloy and superelasticity bars (from this point forward SMA), among other solutions. However, the strain capacity of hinges is dependent on the compressed reinforcement buckling, which means a drastic diminishing in the bearing capacity and ductility. This phenomenon happens due to the cover spalling or degradation, or due to an insufficient transverse reinforcement arrangement. The design codes propose requirements related to the diameter of longitudinal bars and to the transverse reinforcement separation to assure the bearing capacity or to assure the hinge rotation without the compressed reinforcements buckle. Nevertheless, the aforementioned requirements are not valid in compressed elements made of new materials (fiber reinforced concrete, very high performance concrete or SMA bars). This doctoral thesis analyzes the compressed steel or NiTi - SMA bars behaviour in elements made of conventional, high strength or very high performance concrete, with or without fibres. Therefore, an experimental research has been carried out to study the local instability of the compressed bars (steel and NITI) in concrete elements. 32 columns subject to a bending-compression load have been analyzed. An analytic model has been proposed to analyze the buckling critical stress and length in the compressed bars in concrete elements. This model has been calibrated based on experimental tests. It has been performed an experimental and numerical research to analyze the behaviour of the NITI bars as isolated bars. It has been proposed an analytic model to calculate the relationship stress-strain of the compressed bars that includes the buckling effect. This model has been verified by both experimental and numerical results. Finally, it has been proposed an expression to calculate the maximum separation of the transverse reinforcement according to the required limited stress, for both steel and SMA bars. In order to define that stress, two criteria have been proposed: one of them is based on stresses and the other one on strains. With respect to the concrete without fibres case, the proposed expression has been compared with the current code. / La capacidad de deformación de las estructuras depende del comportamiento de las rótulas plásticas. Para mejorar dicho comportamiento en estructuras de hormigón armado, en la literatura técnica se propone utilizar hormigón con fibras de acero en su masa, hormigón de muy altas prestaciones o sustituir en la zona crítica de la estructura las armaduras de acero por barras de aleación con memoria de forma y superelasticidad (en adelante SMA) entre otras soluciones. Sin embargo, la capacidad de deformación de las rótulas está condicionada por el pandeo de la armadura comprimida, lo que supone una disminución drástica de la capacidad resistente y de la ductilidad. Este fenómeno se produce porque el recubrimiento del hormigón salta o se degrada, o por una insuficiente disposición de armadura transversal. En las normativas de diseño se proponen requisitos acerca del diámetro y de la separación de la armadura transversal para asegurar la capacidad resistente o la deformación de la rótula sin que las armaduras comprimidas pandeen. Sin embargo, dichas expresiones no son válidas en elementos comprimidos fabricados con nuevos materiales (hormigón con fibras en su masa, hormigones de muy altas prestaciones o barras de SMA). En esta tesis doctoral se analiza el comportamiento de barras comprimidas, de acero o de SMA en base NiTi, en elementos fabricados con hormigones convencionales, de alta resistencia o de muy altas prestaciones, con o sin fibras en su masa. A tal efecto, se ha ejecutado un programa experimental para estudiar la inestabilidad local de las barras comprimidas (acero y NiTi) en elementos de hormigón. Se han analizado un total de 32 soportes sometidos a una solicitación de flexo-compresión. Se ha propuesto un modelo analítico para determinar la tensión y la longitud crítica de pandeo de barras comprimidas en elementos de hormigón. Este modelo ha sido calibrado con los ensayos experimentales. Se ha realizado un estudio experimental y numérico para analizar el comportamiento de las barras de NiTi como barras aisladas. Se ha propuesto un modelo analítico para calcular la relación tensión - deformación de barras comprimidas que incluye el efecto del pandeo. Este modelo ha sido verificado tanto con los resultados experimentales como numéricos. Finalmente, se ha propuesto una expresión para el cálculo de la separación máxima de la armadura transversal en función de la tensión límite requerida, tanto para barras de acero como de SMA. Para la definición de dicha tensión se proponen dos criterios: uno basado en tensiones y otro en deformaciones. En el caso de hormigón sin fibras, la expresión propuesta se ha comparado con la normativa actual. / La capacitat de deformació de les estructures depén del comportament de les ròtules plàstiques. Per a millorar dit comportament en estructures de formigó armat, en la literatura tècnica es proposa utilitzar formigó amb fibres d'acer en la seua massa, formigó de molt altes prestacions o substituir en la zona crítica de l'estructura les armadures d'acer per barres d'aliatge amb memòria de forma i superelasticitat (d'ara endavant SMA) entre d'altres solucions. No obstant això, la capacitat de deformació de les ròtules està condicionada pel vinclament de l'armadura comprimida, la qual cosa suposa una disminució dràstica de la capacitat resistent i de la ductilitat. Este fenomen es produeix perquè el recobriment del formigó salta o es degrada, o per una insuficient disposició de l'armadura transversal. En les normatives de disseny es proposen requisits quant al diàmetre i a la separació de l'armadura transversal per assegurar la capacitat resistent o la deformació de la ròtula sense que les armadures comprimides vinclen. No obstant això, estes expressions no son vàlides en elements comprimits fabricats amb nous materiales (formigó amb fibres en la seua massa, formigons de molt altes prestacions o barres de SMA). En esta tesis doctoral s'analitza el comportament de barres comprimides, d'acer o de SMA compost per NiTi, en elements fabricats amb formigons convencionals, d'alta resistència o de molt altes prestacions, amb o sense fibres en la seua massa. A tal efecte, s'ha executat un programa experimental per estudiar la inestabilitat local de les barres comprimides (acer i NiTi) en elements de formigó. S'han analitzat un total de 32 soports somesos a una solicitació de flexo-compressió. S'ha proposat un model analític per determinar la tensió i longitud crítica de vinclament de barres comprimides en elements de formigó. Este model ha sigut calibrat amb els assajos experimentals. S'ha realitzat un estudi experimental i numéric per analitzar el comportament de les barres de NiTi com barres aïllades. S'ha proposat un model analític per calcular la relació tensió-deformació de barres comprimides que inclou l'efecte del vinclament. Este model ha sigut verificat tant amb els resultats experimentals com numérics. Finalment, s'ha proposat una expressió per al càlcul de la separació màxima de l'armadura transversal en funció de la tensió límit requerida., tant per a barres d'acer com de SMA. Per a la definició de dita tensió es proposen dos criteris: uno basat en tensions i l'altre en deformacions. En el cas del formigó amb fibres, l'expressió proposada s'ha comparat amb la normativa actual. / Pereiro Barceló, J. (2017). INESTABILIDAD DE BARRAS COMPRIMIDAS DE ACERO Y DE SMA EN ELEMENTOS DE HORMIGÓN FABRICADOS CON NUEVOS MATERIALES. RECOMENDACIONES DE DISEÑO [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90650
235

Extending the Functionality of Score-P through Plugins: Interfaces and Use Cases

Schöne, Robert, Tschüter, Ronny, Ilsche, Thomas, Schuchart, Joseph, Hackenberg, Daniel, Nagel, Wolfgang E. 18 October 2017 (has links) (PDF)
Performance measurement and runtime tuning tools are both vital in the HPC software ecosystem and use similar techniques: the analyzed application is interrupted at specific events and information on the current system state is gathered to be either recorded or used for tuning. One of the established performance measurement tools is Score-P. It supports numerous HPC platforms and parallel programming paradigms. To extend Score-P with support for different back-ends, create a common framework for measurement and tuning of HPC applications, and to enable the re-use of common software components such as implemented instrumentation techniques, this paper makes the following contributions: (I) We describe the Score-P metric plugin interface, which enables programmers to augment the event stream with metric data from supplementary data sources that are otherwise not accessible for Score-P. (II) We introduce the flexible Score-P substrate plugin interface that can be used for custom processing of the event stream according to the specific requirements of either measurement, analysis, or runtime tuning tasks. (III) We provide examples for both interfaces that extend Score-P’s functionality for monitoring and tuning purposes.
236

Spatio-temporal refinement using a discontinuous Galerkin approach for elastodynamic in a high performance computing framework / Raffinement spatio-temporel par une approche de Galerkin discontinue en élastodynamique pour le calcul haute performance

Dudouit, Yohann 08 December 2014 (has links)
Cette thèse étudie le raffinement local de maillage à la fois en espace et en temps pour l’équation de l’elastodynamique du second ordre pour le calcul haute performance. L’objectif est de mettre en place des méthodes numériques pour traiter des hétérogénéités de petite taille ayant un impact important sur la propagation des ondes. Nous utilisons une approche par éléments finis de Galerkin discontinus avec pénalisation pour leur flexibilité et facilité de parallélisation. La formulation éléments finis que nous proposons a pour particularité d’être élasto-acoustique, pour pouvoir prendre en compte des hétérogénéités acoustiques de petite taille. Par ailleurs, nous proposons un terme de pénalisation optimisé qui est mieux adapté à l’équation de l’élastodynamique, conduisant en particulier à une meilleure condition CFL. Nous avons aussi amélioré une formulation PML du second ordre pour laquelle nous avons proposé une nouvelle discrétisation temporelle qui rend la formulation plus stable. En tirant parti de la p-adaptivité et des maillages non-conformes des méthodes de Galerkin discontinues combiné à une méthode de pas de temps local, nous avons grandement réduit le coût du raffinement local. Ces méthodes ont été implémentées en C++, en utilisant des techniques de template metaprogramming, au sein d’un code parallèle à mémoire distribuée (MPI) et partagée (OpenMP). Enfin, nous montrons le potentiel de notre approche sur des cas tests de validation et sur des cas plus réalistes avec des milieux présentant des hydrofractures. / This thesis studies local mesh refinement both in time and space for the second order elastodynamic equation in a high performance computing context. The objective is to develop numerical methods to treat small heterogeneities that have global impact on wave propagation. We use an internal penalty discontinuous Galerkin finite element approach for its flexibity and parallelization capabilities. The elasto-acoustic finite element formulation we discuss is elasto-acoustic in order to handle local acoustic heterogeneities. We also propose an optimized penalty term more suited to the elastodynamic equation that results in better CFL condition. We improve a second order PML formulation with an original time discretization that results in a more stable formulation. Using the p-adaptivity and nonconforming mesh capabilities of discontinuous Galerkin methods combined with a local time stepping method, we greatly reduce the high computational cost of local refinements. These methods have been implemented in C++, using template metaprogramming, in a distributed memory (MPI) and shared memory (OpenMP) parallel code. Finally, we show the potential of our methods on validation test cases and on more realistic test cases with medium including hydrofractures.
237

Studium vlivu složení na mechanické vlastnosti vysokohodnotného betonu / Study of the influence of compositon on the mechanical properties of high performance concrete

Veleba, Ondřej January 2008 (has links)
This work is devoted to study the influence of the composition on mechanical properties of high performance concret based on portland cement. 29 samples of high performance concrete (HPC) warying in composition were prepared. The constituents used for HPC preparation were: cement Aalborg White, silica fume, finelly ground blast furnace slag, finelly ground silica, calcinated bauxite and polycarboxylate based superplasticizer. The mechanical parameters (flexural and compressive strength) of the samples were observed after 7 and 28 days of moist curing. Compressive strength values after 28 days were in the range of 92 to 194 MPa and the flexural strength values were in the range of 7 to 23 MPa (without using of fiber reinforcement). The graphs showing mechanical parameters depending on the mixture composition were constructed and consequently evaluated.
238

Extending the Functionality of Score-P through Plugins: Interfaces and Use Cases

Schöne, Robert, Tschüter, Ronny, Ilsche, Thomas, Schuchart, Joseph, Hackenberg, Daniel, Nagel, Wolfgang E. 18 October 2017 (has links)
Performance measurement and runtime tuning tools are both vital in the HPC software ecosystem and use similar techniques: the analyzed application is interrupted at specific events and information on the current system state is gathered to be either recorded or used for tuning. One of the established performance measurement tools is Score-P. It supports numerous HPC platforms and parallel programming paradigms. To extend Score-P with support for different back-ends, create a common framework for measurement and tuning of HPC applications, and to enable the re-use of common software components such as implemented instrumentation techniques, this paper makes the following contributions: (I) We describe the Score-P metric plugin interface, which enables programmers to augment the event stream with metric data from supplementary data sources that are otherwise not accessible for Score-P. (II) We introduce the flexible Score-P substrate plugin interface that can be used for custom processing of the event stream according to the specific requirements of either measurement, analysis, or runtime tuning tasks. (III) We provide examples for both interfaces that extend Score-P’s functionality for monitoring and tuning purposes.
239

Koldioxidavskiljning på ett biobränsleeldat kraftvärmeverk : Simulering av två avskiljningstekniker vid Karlstad Energis kraftvärmeverk, Heden 3 / Carbon dioxide capture at a biofuel-fired CHP-plant : Simulation of two separation techniques at Karlstad Energy's CHP-plant, Heden 3

Bergström, Sandra January 2020 (has links)
BECCS (Bioenergy Carbon Capture and Storage) is an important part of measures to achieve zero net emissions globally by 2050, as the technology can create carbon sinks. However, the technology is very energy-intensive and expensive, and affects the existing systems at implementation. The purpose of this study is to investigate the possibility of implementing BECCS at Karlstad Energy's biofuel-fired CHP-plant, Heden 3. The goal is, by simulation in CHEMCAD, to generate energy consumption key figures for two different separation technologies (MEA-MonoEthanolAmine and HPC-HotPotassiumCarbonate) with 90 % separation rate in three different operating cases. In addition, the systemic impact on Heden 3 will be determined by analyzing three different scenarios. In the first scenario fuel consumption is kept unchanged and steam to the carbon capture system is extracted before the turbine. In the second scenario fuel supply increases to meet the district heating needs of the existing system and steam to the carbon capture system is extracted before the turbine. In the third scenario fuel supply is kept unchanged and steam is extracted from the turbine. In addition, the study investigates various transport options for storage of carbon dioxide and finally calculate the total carbon sink Karlstad Energy can contribute to. The results show that production of electricity is reduced by 65-87 % after implementation of MEA and 151-238 % for HPC in the first scenario. Without heat utilization in the carbon capture system, heat production is reduced by 66-86 % with MEA and 54-76% for HPC. In the second scenario, a fuel supply increase by 134 % is required to meet the needs, which corresponds to more than twice the boiler capacity and results in a reduced production of electricity by 247 %. In the third scenario, production of electricity is reduced by 104 % at maximum load with HPC. The HPC system has high-quality heat to utilize, probably enough to meet the district heating needs without increasing the boiler power. But heat optimization opportunities need to be further explored in order to be able to express something to a greater extent. The MEA process does not offer the same opportunities for heat utilization. As the CHP-plant have heat as the main product, HPC would be a more suitable alternative despite the high load on the electricity production. The performance of the carbon dioxide plant seems to vary between different operating cases and it can be concluded that the variation is related to the flue gas composition rather than being load dependent. Transport of carbon dioxide by train has the lowest carbon dioxide emissions and requires the least number of cargoes for transport from Karlstad to storage in Norway. However, this is not relevant at present because of the lack of rail connection to the plant. Total carbon sink is approximately 127 000 tonnes per year if the boiler capacity is assumed to be unchanged. / BECCS (Bioenergy Carbon Capture and Storage) är en viktig del av åtgärder i målet om att nå nollnetto utsläpp år 2050 globalt, då tekniken kan skapa kolsänkor. Tekniken är dock mycket energikrävande och dyr, och påverkar de befintliga systemen vid implementering. Syftet med den här studien är att undersöka möjligheten att implementera BECCS på Karlstad Energis biobränsleeldade kraftvärmeverk, Heden 3. Målet är att, genom simulering i CHEMCAD, ta fram förbrukningsnyckeltal för två olika avskiljningstekniker (MEA-MonoEtanolAmin och HPC-HotPotassiumCarbonate) med 90 % avskiljningsgrad vid tre olika driftfall. Dessutom ska systempåverkan på Heden 3 fastställas genom analys av tre olika scenarier. I första scenariot hålls bränsleförbrukningen oförändrad och ånga till koldioxidavskiljningssystemet tappas av innan turbinen. I det andra scenariot ökar bränsletillförseln för att tillgodose fjärrvärmebehovet i det befintliga systemet och ånga till koldioxidavskiljningssystemet tappas av innan turbinen. I det tredje scenariot hålls bränsletillförseln oförändrad och ånga extraheras från turbinen. Därtill undersöks i studien olika transportmöjligheter till lagringsplats av koldioxiden och slutligen beräknas den totala kolsänkan Karlstad Energi kan bidra med. Resultaten visar att elproduktionen i det första scenariot reduceras med 65-87 % för MEA och för HPC 151-238 %. Utan värmeutnyttjande från koldioxidavskiljningssystemen reduceras värmeproduktionen med 66-86 % med MEA och 54-76 % med HPC. I det andra scenariot krävs att bränsletillförseln ökar med 134 % för att tillgodose behoven vilket motsvarar mer än dubbla panneffekten och innebär en reducerad elproduktion på 247 %. I det tredje scenariot reduceras elproduktionen med 104 % vid maximal last med HPC.  I HPC-systemet finns högvärdig värme att utnyttja, sannolikt tillräckligt mycket för att kunna uppfylla fjärrvärmebehovet utan att öka panneffekten. Men värmeoptimeringsmöjligheter behöver undersökas ytterligare för att kunna uttrycka något i större omfattning. I MEA-processen finns inte samma möjligheter till värmeutnyttjande. Eftersom kraftvärmeverket har värme som främsta produkt skulle således HPC vara ett lämpligare alternativ trots den höga belastningen på elproduktionen. Koldioxidanläggningens prestanda förefaller variera mellan olika driftfall och med en enklare undersökning kunde slutsatsen dras att variationen har ett samband med rökgassammansättningen snarare än att det är ett lastberoende. Transport av koldioxid med tåg har lägst koldioxidutsläpp och kräver minst antal laster för transport från Karlstad till lagring i Norge. Detta är dock inte aktuellt i dagsläget på grund av avsaknaden av räls in till verket. Den totala kolsänkan är cirka 127 000 ton per år om pannan antas köras oförändrat.
240

I/O Aware Power Shifting

Savoie, Lee, Lowenthal, David K., Supinski, Bronis R. de, Islam, Tanzima, Mohror, Kathryn, Rountree, Barry, Schulz, Martin 05 1900 (has links)
Power limits on future high-performance computing (HPC) systems will constrain applications. However, HPC applications do not consume constant power over their lifetimes. Thus, applications assigned a fixed power bound may be forced to slow down during high-power computation phases, but may not consume their full power allocation during low-power I/O phases. This paper explores algorithms that leverage application semantics-phase frequency, duration and power needs-to shift unused power from applications in I/O phases to applications in computation phases, thus improving system-wide performance. We design novel techniques that include explicit staggering of applications to improve power shifting. Compared to executing without power shifting, our algorithms can improve average performance by up to 8% or improve performance of a single, high-priority application by up to 32%.

Page generated in 0.298 seconds