Spelling suggestions: "subject:"energieeffizienz"" "subject:"eneergieeffizienz""
1 |
Berechnung hydraulischer Verluste fluidführender SystemeHüge, Carsten 31 May 2010 (has links) (PDF)
Bestimmung der temperatur- und volumenstromabhängigen Druckverluste einer hydraulischen Baugruppe zur Abschätzung und Optimierung der Gesamtenergieffizienz im Verlauf der Neuentwicklung einer hochintegrativen Komponente eines Wärmepumpensystems
|
2 |
Auswirkungen des technologischen Fortschritts und des Klimaschutzes auf die Stromerzeugung Analysen mit einem allgemeinen GleichgewichtsmodellZürn, Marcel January 2009 (has links)
Zugl.: Stuttgart, Univ., Diss., 2009
|
3 |
Measuring, Rating, and Predicting the Energy Efficiency of Servers / Messung, Bewertung und Vorhersage von Serverenergieeffizienzvon Kistowski, Jóakim Gunnarsson January 2019 (has links) (PDF)
Energy efficiency of computing systems has become an increasingly important issue over the last decades. In 2015, data centers were responsible for 2% of the world's greenhouse gas emissions, which is roughly the same as the amount produced by air travel.
In addition to these environmental concerns, power consumption of servers in data centers results in significant operating costs, which increase by at least 10% each year.
To address this challenge, the U.S. EPA and other government agencies are considering the use of novel measurement methods in order to label the energy efficiency of servers.
The energy efficiency and power consumption of a server is subject to a great number of factors, including, but not limited to, hardware, software stack, workload, and load level.
This huge number of influencing factors makes measuring and rating of energy efficiency challenging. It also makes it difficult to find an energy-efficient server for a specific use-case. Among others, server provisioners, operators, and regulators would profit from information on the servers in question and on the factors that affect those servers' power consumption and efficiency. However, we see a lack of measurement methods and metrics for energy efficiency of the systems under consideration.
Even assuming that a measurement methodology existed, making decisions based on its results would be challenging. Power prediction methods that make use of these results would aid in decision making. They would enable potential server customers to make better purchasing decisions and help operators predict the effects of potential reconfigurations.
Existing energy efficiency benchmarks cannot fully address these challenges, as they only measure single applications at limited sets of load levels. In addition, existing efficiency metrics are not helpful in this context, as they are usually a variation of the simple performance per power ratio, which is only applicable to single workloads at a single load level. Existing data center efficiency metrics, on the other hand, express the efficiency of the data center space and power infrastructure, not focusing on the efficiency of the servers themselves. Power prediction methods for not-yet-available systems that could make use of the results provided by a comprehensive power rating methodology are also lacking. Existing power prediction models for hardware designers have a very fine level of granularity and detail that would not be useful for data center operators.
This thesis presents a measurement and rating methodology for energy efficiency of servers and an energy efficiency metric to be applied to the results of this methodology. We also design workloads, load intensity and distribution models, and mechanisms that can be used for energy efficiency testing. Based on this, we present power prediction mechanisms and models that utilize our measurement methodology and its results for power prediction.
Specifically, the six major contributions of this thesis are:
We present a measurement methodology and metrics for energy efficiency rating of servers that use multiple, specifically chosen workloads at different load levels for a full system characterization.
We evaluate the methodology and metric with regard to their reproducibility, fairness, and relevance. We investigate the power and performance variations of test results and show fairness of the metric through a mathematical proof and a correlation analysis on a set of 385 servers. We evaluate the metric's relevance by showing the relationships that can be established between metric results and third-party applications.
We create models and extraction mechanisms for load profiles that vary over time, as well as load distribution mechanisms and policies. The models are designed to be used to define arbitrary dynamic load intensity profiles that can be leveraged for benchmarking purposes. The load distribution mechanisms place workloads on computing resources in a hierarchical manner.
Our load intensity models can be extracted in less than 0.2 seconds and our resulting models feature a median modeling error of 12.7% on average. In addition, our new load distribution strategy can save up to 10.7% of power consumption on a single server node.
We introduce an approach to create small-scale workloads that emulate the power consumption-relevant behavior of large-scale workloads by approximating their CPU performance counter profile, and we introduce TeaStore, a distributed, micro-service-based reference application. TeaStore can be used to evaluate power and performance model accuracy, elasticity of cloud auto-scalers, and the effectiveness of power saving mechanisms for distributed systems.
We show that we are capable of emulating the power consumption behavior of realistic workloads with a mean deviation less than 10% and down to 0.2 watts (1%). We demonstrate the use of TeaStore in the context of performance model extraction and cloud auto-scaling also showing that it may generate workloads with different effects on the power consumption of the system under consideration.
We present a method for automated selection of interpolation strategies for performance and power characterization. We also introduce a configuration approach for polynomial interpolation functions of varying degrees that improves prediction accuracy for system power consumption for a given system utilization.
We show that, in comparison to regression, our automated interpolation method selection and configuration approach improves modeling accuracy by 43.6% if additional reference data is available and by 31.4% if it is not.
We present an approach for explicit modeling of the impact a virtualized environment has on power consumption and a method to predict the power consumption of a software application. Both methods use results produced by our measurement methodology to predict the respective power consumption for servers that are otherwise not available to the person making the prediction.
Our methods are able to predict power consumption reliably for multiple hypervisor configurations and for the target application workloads. Application workload power prediction features a mean average absolute percentage error of 9.5%.
Finally, we propose an end-to-end modeling approach for predicting the power consumption of component placements at run-time. The model can also be used to predict the power consumption at load levels that have not yet been observed on the running system.
We show that we can predict the power consumption of two different distributed web applications with a mean absolute percentage error of 2.2%. In addition, we can predict the power consumption of a system at a previously unobserved load level and component distribution with an error of 1.2%.
The contributions of this thesis already show a significant impact in science and industry. The presented efficiency rating methodology, including its metric, have been adopted by the U.S. EPA in the latest version of the ENERGY STAR Computer Server program. They are also being considered by additional regulatory agencies, including the EU Commission and the China National Institute of Standardization. In addition, the methodology's implementation and the underlying methodology itself have already found use in several research publications.
Regarding future work, we see a need for new workloads targeting specialized server hardware. At the moment, we are witnessing a shift in execution hardware to specialized machine learning chips, general purpose GPU computing, FPGAs being embedded into compute servers, etc. To ensure that our measurement methodology remains relevant, workloads covering these areas are required. Similarly, power prediction models must be extended to cover these new scenarios. / In den vergangenen Jahrzehnten hat die Energieeffizienz von Computersystemen stark an Bedeutung gewonnen. Bereits 2015 waren Rechenzentren für 2% der weltweiten Treibhausgasemissionen verantwortlich, was mit der durch den Flugverkehr verursachten Treibhausgasmenge vergleichbar ist. Dabei wirkt sich der Stromverbrauch von Rechenzentren nicht nur auf die Umwelt aus, sondern verursacht auch erhebliche, jährlich um mindestens 10% steigende, Betriebskosten. Um sich diesen Herausforderungen zu stellen, erwägen die U.S. EPA und andere Behörden die Anwendung von neuartigen Messmethoden, um die Energieeffizienz von Servern zu bestimmen und zu zertifizieren.
Die Energieeffizienz und der Stromverbrauch eines Servers wird von vielen verschiedenen Faktoren, u.a. der Hardware, der zugrundeliegenden Ausführungssoftware, der Arbeitslast und der Lastintensität, beeinflusst. Diese große Menge an Einflussfaktoren führt dazu, dass die Messung und Bewertung der Energieeffizienz herausfordernd ist, was die Auswahl von energieeffizienten Servern für konkrete Anwendungsfälle erheblich erschwert. Informationen über Server und ihre Energieeffizienz bzw. ihren Stromverbrauch beeinflussenden Faktoren wären für potentielle Kunden von Serverhardware, Serverbetreiber und Umweltbehörden von großem Nutzen. Im Allgemeinen mangelt es aber an Messmethoden und Metriken, welche die Energieeffizienz von Servern in befriedigendem Maße erfassen und bewerten können.
Allerdings wäre es selbst unter der Annahme, dass es solche Messmethoden gäbe, dennoch schwierig Entscheidungen auf Basis ihrer Ergebnisse zu fällen. Um derartige Entscheidungen zu vereinfachen, wären Methoden zur Stromverbrauchsvorhersage hilfreich, um es potentiellen Serverkunden zu ermöglichen bessere Kaufentscheidungen zu treffen und Serverbetreibern zu helfen, die Auswirkungen möglicher Rekonfigurationen vorherzusagen.
Existierende Energieeffizienzbenchmarks können diesen Herausforderungen nicht vollständig begegnen, da sie nur einzelne Anwendungen bei wenigen Lastintensitätsstufen ausmessen. Auch sind die vorhandenen Energieeffizienzmetriken in diesem Kontext nicht hilfreich, da sie normalerweise nur eine Variation des einfachen Verhältnisses von Performanz zu Stromverbrauch darstellen, welches nur auf einzelne Arbeitslasten bei einer einzigen gemessenen Lastintensität angewandt werden kann. Im Gegensatz dazu beschreiben die existierenden Rechenzentrumseffizienzmetriken lediglich die Platz- und Strominfrastruktureffizienz von Rechenzentren und bewerten nicht die Effizienz der Server als solche. Methoden zur Stromverbrauchsvorhersage noch nicht für Kunden verfügbarer Server, welche die Ergebnisse einer ausführlichen Stromverbrauchsmessungs- und Bewertungsmethodologie verwenden, gibt es ebenfalls nicht. Stattdessen existieren Stromverbrauchsvorhersagemethoden und Modelle für Hardwaredesigner und Hersteller. Diese Methoden sind jedoch sehr feingranular und erfordern Details, welche für Rechenzentrumsbetreiber nicht verfügbar sind, sodass diese keine Vorhersage durchführen können.
In dieser Arbeit werden eine Energieeffizienzmess- und Bewertungsmethodologie für Server und Energieeffizienzmetriken für diese Methodologie vorgestellt. Es werden Arbeitslasten, Lastintensitäten und Lastverteilungsmodelle und -mechanismen, die für Energieeffizienzmessungen und Tests verwendet werden können, entworfen. Darauf aufbauend werden Mechanismen und Modelle zur Stromverbrauchsvorhersage präsentiert, welche diese Messmethodologie und die damit produzierten Ergebnisse verwenden. Die sechs Hauptbeiträge dieser Arbeit sind:
Eine Messmethodologie und Metriken zur Energieeffizienzbewertung von Servern, die mehrere, verschiedene Arbeitslasten unter verschiedenen Lastintensitäten ausführt, um die beobachteten Systeme vollständig zu charakterisieren.
Diese Methodologie wird im Bezug auf ihre Wiederholbarkeit, Fairness und Relevanz evaluiert. Es werden die Stromverbrauchs- und Performanzvariationen von wiederholten Methodologieausführungen untersucht und die Fairness der Methodologie wird durch mathematische Beweise und durch eine Korrelationsanalyse anhand von Messungen auf 385 Servern bewertet. Die Relevanz der Methodologie und der Metrik wird gezeigt, indem Beziehungen zwischen Metrikergebnissen und der Energieeffizienz von anderen Serverapplikationen untersucht werden.
Modelle und Extraktionsverfahren für sich mit der Zeit verändernde Lastprofile, sowie Lastverteilungsmechanismen und -regeln. Die Modelle können dazu verwendet werden, beliebige Lastintensitätsprofile, die zum Benchmarking verwendet werden können, zu entwerfen. Die Lastverteilungsmechanismen, hingegen, platzieren Arbeitslasten in hierarchischer Weise auf Rechenressourcen.
Die Lastintensitätsmodelle können in weniger als 0,2 Sekunden extrahiert werden, wobei die jeweils resultierenden Modelle einen durchschnittlichen Medianmodellierungsfehler von 12,7% aufweisen. Zusätzlich dazu kann die neue Lastverteilungsstrategie auf einzelnen Servern zu Stromverbrauchseinsparungen von bis zu 10,7% führen.
Ein Ansatz um kleine Arbeitslasten zu erzeugen, welche das Stromverbrauchsverhalten von größeren, komplexeren Lasten emulieren, indem sie ihre CPU Performance Counter-Profile approximieren sowie den TeaStore: Eine verteilte, auf dem Micro-Service-Paradigma basierende Referenzapplikation. Der TeaStore kann verwendet werden, um Strom- und Performanzmodellgenauigkeit, Elastizität von Cloud Autoscalern und die Effektivität von Stromsparmechanismen in verteilten Systemen zu untersuchen.
Das Arbeitslasterstellungsverfahren kann das Stromverbrauchsverhalten von realistischen Lasten mit einer mittleren Abweichung von weniger als 10% und bis zu einem minimalen Fehler von 0,2 Watt (1%) nachahmen. Die Anwendung des TeaStores wird durch die Extraktion von Performanzmodellen, die Anwendung in einer automatisch skalierenden Cloudumgebung und durch eine Demonstration der verschiedenen möglichen Stromverbräuche, die er auf Servern verursachen kann, gezeigt.
Eine Methode zur automatisierten Auswahl von Interpolationsstrategien im Bezug auf Performanz und Stromverbrauchscharakterisierung. Diese Methode wird durch einen Konfigurationsansatz, der die Genauigkeit der auslastungsabhängigen Stromvorhersagen von polynomiellen Interpolationsfunktionen verbessert, erweitert.
Im Gegensatz zur Regression kann der automatisierte Interpolationsmethodenauswahl- und Konfigurationsansatz die Modellierungsgenauigkeit mit Hilfe eines Referenzdatensatzes um 43,6% verbessern und kann selbst ohne diesen Referenzdatensatz eine Verbesserung von 31,4% erreichen.
Einen Ansatz, der explizit den Einfluss von Virtualisierungsumgebungen auf den Stromverbrauch modelliert und eine Methode zur Vorhersage des Stromverbrauches von Softwareapplikationen. Beide Verfahren nutzen die von der in dieser Arbeit vorgegestellten Stromverbrauchsmessmethologie erzeugten Ergebnisse, um den jeweiligen Stromverbrauch von Servern, die den Vorhersagenden sonst nicht zur Verfügung stehen, zu ermöglichen.
Die vorgestellten Verfahren können den Stromverbrauch für verschiedene Hypervisorkonfigurationen und für Applikationslasten zuverlässig vorhersagen. Die Vorhersage des Stromverbrauchs von Serverapplikationen erreicht einen mittleren absoluten Prozentfehler von 9,5%.
Ein Modellierungsansatz zur Stromverbrauchsvorhersage für Laufzeitplatzierungsentscheidungen von Softwarekomponenten, welcher auch dazu verwendet werden kann den Stromverbrauch für bisher nicht beobachtete Lastintensitäten auf dem laufenden System vorherzusagen.
Der Modellierungsansatz kann den Stromverbrauch von zwei verschiedenen, verteilten Webanwendungen mit einem mittleren absoluten Prozentfehler von 2,2% vorhersagen. Zusätzlich kann er den Stromverbrauch von einem System bei einer in der Vergangenheit nicht beobachteten Lastintensität und Komponentenverteilung mit einem Fehler von 1,2% vorhersagen.
Die Beiträge in dieser Arbeit haben sich bereits signifikant auf Wissenschaft und Industrie ausgewirkt. Die präsentierte Energieeffizienzbewertungsmethodologie, inklusive ihrer Metriken, ist von der U.S. EPA in die neueste Version des ENERGY STAR Computer Server-Programms aufgenommen worden und wird zurzeit außerdem von weiteren Behörden, darunter die EU Kommission und die Nationale Chinesische Standardisierungsbehörde, in Erwägung gezogen. Zusätzlich haben die Implementierung der Methodologie und die zugrundeliegende Methodologie bereits Anwendung in mehreren wissenschaftlichen Arbeiten gefunden.
In Zukunft werden im Rahmen von weiterführenden Arbeiten neue Arbeitslasten erstellt werden müssen, um die Energieeffizienz von spezialisierter Hardware zu untersuchen. Zurzeit verändert sich die Server-Rechenlandschaft in der Hinsicht, dass spezialisierte Ausführungseinheiten, wie Chips zum maschinellen Lernen, GPGPU Rechenchips und FPGAs in Servern verbaut werden. Um sicherzustellen, dass die Messmethodologie aus dieser Arbeit weiterhin relevant bleibt, wird es nötig sein, Arbeitslasten zu erstellen, welche diese Fälle abdecken, sowie Stromverbrauchsmodelle zu entwerfen, die in der Lage sind, derartige spezialisierte Hardware zu betrachten.
|
4 |
Energy-Efficient Databases Using Sweet Spot FrequenciesLehner, Wolfgang, Götz, Sebastian, Ilsche, Thomas, Cardoso, Jorge, Spillner, Josef, Kissinger, Thomas, Aßmann, Uwe, Nagel, Wolfgang E., Schill, Alexander 12 January 2023 (has links)
Database management systems (DBMS) are typically tuned for high performance and scalability. Nevertheless, carbon footprint and energy efficiency are also becoming increasing concerns. Unfortunately, existing studies mainly present theoretical contributions but fall short on proposing practical techniques. These could be used by administrators or query optimizers to increase the energy efficiency of the DBMS. Thus, this paper explores the effect of so-called sweet spots, which are energy-efficient CPU frequencies, on the energy required to execute queries. From our findings, we derive the Sweet Spot Technique, which relies on identifying energy-efficient sweet spots and the optimal number of threads that minimizes energy consumption for a query or an entire database workload. The technique is simple and has a practical implementation leading to energy savings of up to 50% compared to using the nominal frequency and maximum number of threads.
|
5 |
Materialeffiziente Produktion in der Ur- und Umformtechnik: Online-Content zum interaktiven Whitepaper KORESILTekkaya, Erman, Selvaggio, Alessandro, Zäh, Michael F., Bernauer, Christian, Zapata, Avelino, Gude, Maik, Müller-Pabel, Michael, Weck, Daniel 02 January 2025 (has links)
Im Zeitalter der Hochtechnologie und der industriellen Innovationen sind die effiziente Verarbeitung und das Recycling von Materialien für den Leichtbau ein zentrales Anliegen.
Aluminium ist aufgrund seiner herausragenden Eigenschaften wie geringe Dichte, Korrosionsbeständigkeit und hohe Festigkeit eines der wichtigsten Metalle in der modernen Industrie. Trotz dieser positiven Eigenschaften ist die Primärproduktion von Aluminium sehr energieintensiv und mit erheblichen Umweltbelastungen verbunden. Das Recycling von Aluminium gewinnt daher zunehmend an Bedeutung, da es nicht nur den Energieverbrauch senkt, sondern auch die Treibhausgasemissionen reduziert. Zusätzlich wird durch das Recycling die Abhängigkeit der Industrie und Gesellschaft von Rohstofflieferanten reduziert.
Herkömmliche Recyclingmethoden, insbesondere das Umschmelzen von Aluminiumschrotten, sind jedoch mit Problemen wie Materialverlust, Qualitätseinbußen und geringer Energieeffizienz verbunden. Eine vielversprechende Alternative ist das direkte Recycling von Aluminiumrezyklaten durch Strangpressen. Dieses Verfahren ermöglicht die Herstellung hochwertiger Aluminiumprofile direkt aus dem Rezyklatmaterial ohne den Zwischenschritt des Wiedereinschmelzens (im Englischen als Solid-State Recycling bezeichnet). Dadurch können Materialverluste durch Abbrand minimiert und die Ressourceneffizienz deutlich gesteigert werden.
Der Werkstoff Aluminium profitiert zudem vom Einsatz neuartiger Technologien wie etwa additiver Fertigungsverfahren, die das Potenzial besitzen, die Effizienz in der Produktion deutlich zu steigern und dabei gleichzeitig den Ressourceneinsatz zu reduzieren. Additive Fertigungsverfahren ermöglichen die Herstellung komplexer Bauteile direkt aus einem virtuellen CAD-Modell, ähnlich dem Druck auf Papier, nur eben dreidimensional. Besonders vielversprechend für Bauteile aus Aluminium ist das Laserauftragschweißen. Mit dieser Technologie können große Bauteile effizient hergestellt werden, indem Zusatzwerkstoff schichtweise aufgetragen und aufgeschmolzen wird. Aktuelle Forschungsansätze konzentrieren sich auf die Optimierung der Prozessparameter, die Entwicklung prädiktiver Simulationsmodelle zur Qualitätssicherung sowie den Einsatz fortschrittlicher Sensortechnologien zur Prozessüberwachung und -regelung. Diese Entwicklungen sind entscheidend für die industrielle Anwendung und tragen zur Weiterentwicklung und Anwendung des Laserauftragschweißens insbesondere im Hinblick auf Zuverlässigkeit, Effizienz und Nachhaltigkeit in der Produktion bei.
Neben den Leichtmetallen werden im Leichtbau häufig verstärkte Kunststoffe eingesetzt, da diese ein sehr günstiges Eigenschaftsprofil aufweisen. Unter der Vielfalt der Verfahren zur Kunststoffverarbeitung hebt sich das Spritzgießen durch sein Potenzial zur effizienten Fertigung von komplexen Formteilen in großen Stückzahlen hervor. Darüber hinaus eignet sich der Spritzguss hervorragend zur Funktionalisierung von metallischen Strukturen, bspw. aus Aluminium. Diese Hybridstrukturen kombinieren dabei die Eigenschaften der einzelnen Materialklassen auf vorteilhafte Weise. Neuartige spritzgegossene Hybridstrukturen kombinieren thermoplastische Formmassen auch mit flächigen Verstärkungsstrukturen wie Organoblechen. Diese Technologie reduziert Montageschritte, ermöglicht Gewichts- und Kosteneinsparungen und wird im Automobilbau bereits in Großserie eingesetzt.
Für die Zukunft eröffnet die Kombination aus traditionellem Spritzgießen, Digitalisierung und Hybridtechnologien neue Horizonte für die effiziente und nachhaltige Herstellung hochwertiger kunststoffbasierter Bauteile.:Inhalt 1
Einleitung 1
Aluminium-Strangpressen 3
Laserauftragschweißen 19
Spritzgießen 25
Executive Summary 30
Handlungsempfehlung 32
Literatur 34
|
6 |
Methoden der energetisch-wirtschaftlichen Bilanzierung und Bewertung in der Produktionstechnik23 December 2011 (has links) (PDF)
Mit dem Spitzentechnologiecluster „Energieeffiziente Produkt- und Prozessinnovationen in der Produktionstechnik“ (eniPROD®) werden die am Wissenschaftsstandort Chemnitz vorhandenen exzellenten Forschungsbereiche gebündelt, um einen national und international sichtbaren Beitrag zur Umsetzung der Vision einer nahezu emissionsfreien Produktion bei gleichzeitiger Erhöhung der Ressourceneffizienz zu leisten.
Um dieses Ziel erreichen zu können, sind Methoden erforderlich, mit denen Energieverbräuche unter Einbeziehung technischer, ökonomischer und ökologischer Kriterien erfasst und bewertet werden können.
Die im Rahmen von eniPROD® gebildete Querschnittsarbeitsgruppe 1 „Energetisch-wirtschaftliche Bilanzierung“ setzt sich intensiv mit solchen Bilanzierungs- und Bewertungsmethoden auseinander. Der vorliegende Band enthält die Beiträge eines von der Querschnittsarbeitsgruppe initiierten Workshops, in dem verschiedene Facetten des Themenkomplexes der energetisch-wirtschaftlichen Bilanzierung und Bewertung von Wissenschaftlern verschiedener Disziplinen aufgegriffen und diskutiert wurden.
|
7 |
Echtzeitfähige energiesensitive MaschinensimulationWitt, Marco 08 May 2014 (has links) (PDF)
Energieeffizienz gewinnt als Wettbewerbs- und Kostenfaktor für die industrielle Produktion seit einigen Jahren immer mehr an Bedeutung und sollte bereits in der Produkt- und Prozessentwicklung bzw. -verbesserung berücksichtigt werden. Entsprechend zeigt der Beitrag, wie mittels Maschinensimulation auf der Basis empirischer Messdaten die Energieverbräuche für zukünftige Fertigungsprozesse durch eine integrierte Visualisierung abgeschätzt werden können.
|
8 |
Niedrigenergiesortimente bei TopfkulturenWartenberg, Stephan 26 March 2015 (has links) (PDF)
Von 2012 bis 2014 wurden Topfkulturen im Zierpflanzenbau auf Sortenunterschiede im Wärmebedarf untersucht. Hinsichtlich der Einsparung an Heizenergie durch Sortenwahl wurde bei Pelargonien ein Potenzial von 10 %, bei Neuguinea-Impatiens von 48 % und bei Poinsettien von 40 % ermittelt. Diese Potenziale sind wegen weiterer Kriterien für die Sortenwahl und Varianten der Kulturführung in der Praxis des Gartenbaus nicht in vollem Umfang nutzbar, aber die für jede Art ermittelten Niedrigenergiesortimente bieten gute Einsparmöglichkeiten. Die Ergebnisse sind auch ein starker Impuls für die stärkere Berücksichtigung des Wärmebedarfs bei der Neuzüchtung von Sorten.
|
9 |
Measurement, Modeling, and Emulation of Power Consumption of Distributed Systems / Messung, Modellierung und Emulation des Stromverbrauchs von verteilten SystemenSchmitt, Norbert January 2022 (has links) (PDF)
Today’s cloud data centers consume an enormous amount of energy, and energy consumption will rise in the future. An estimate from 2012 found that data centers consume about 30 billion watts of power, resulting in about 263TWh of energy usage per year. The energy consumption will rise to 1929TWh until 2030. This projected rise in energy demand is fueled by a growing number of services deployed in the cloud. 50% of enterprise workloads have been migrated to the cloud in the last decade so far. Additionally, an increasing number of devices are using the cloud to provide functionalities and enable data centers to grow. Estimates say more than 75 billion IoT devices will be in use by 2025.
The growing energy demand also increases the amount of CO2 emissions. Assuming a CO2-intensity of 200g CO2 per kWh will get us close to 227 billion tons of CO2. This emission is more than the emissions of all energy-producing power plants in Germany in 2020.
However, data centers consume energy because they respond to service requests that are fulfilled through computing resources. Hence, it is not the users and devices that consume the energy in the data center but the software that controls the hardware. While the hardware is physically consuming energy, it is not always responsible for wasting energy. The software itself plays a vital role in reducing the energy consumption and CO2 emissions of data centers. The scenario of our thesis is, therefore, focused on software development.
Nevertheless, we must first show developers that software contributes to energy consumption by providing evidence of its influence. The second step is to provide methods to assess an application’s power consumption during different phases of the development process and to allow modern DevOps and agile development methods. We, therefore, need to have an automatic selection of system-level energy-consumption models that can accommodate rapid changes in the source code and application-level models allowing developers to locate power-consuming software parts for constant improvements. Afterward, we need emulation to assess the energy efficiency before the actual deployment. / Die heutigen Cloud-Rechenzentren verbrauchen eine enorme Menge an Energie, und der Energieverbrauch wird in Zukunft noch steigen. Eine Schätzung aus dem Jahr 2012 ergab, dass Rechenzentren etwa 30 Milliarden Watt Strom verbrauchen, was einem Energieverbrauch von etwa 263TWh pro Jahr entspricht. Der Energieverbrauch wird bis zum Jahr 2030 auf 1929TWh ansteigen. Dieser prognostizierte Anstieg des Energiebedarfs wird durch die wachsende Zahl der in der Cloud bereitgestellten Dienste angeheizt. In den letzten zehn Jahren wurden bereits 50% der Arbeitslasten in Unternehmen in die Cloud verlagert. Außerdem nutzen immer mehr Geräte die Cloud, um Funktionen bereitzustellen und das Wachstum von Rechenzentren zu ermöglichen. Schätzungen zufolge werden bis 2025 mehr als 75 Milliarden IoT-Geräte im Einsatz sein.
Der wachsende Energiebedarf erhöht auch die Menge der CO2-Emissionen. Geht man von einer CO2-Intensität von 200g CO2 pro kWh in einem eher optimistischen Szenario aus, kommen wir auf fast 227 Milliarden Tonnen CO2. Dieser Ausstoß ist mehr CO2 als die Emissionen aller energieerzeugenden Kraftwerke in Deutschland im Jahr 2020.
Rechenzentren verbrauchen jedoch Energie, weil sie auf Serviceanfragen reagieren, die durch Rechenressourcen erfüllt werden. Es sind also nicht die Benutzer und Geräte, die in einem Rechenzentrum Energie verbrauchen, sondern die Software, die die Hardware steuert. Obwohl die Hardware physisch Energie verbraucht, ist sie nicht immer für die Energieverschwendung verantwortlich. Die Software selbst spielt eine wichtige Rolle bei der Reduzierung des Energieverbrauchs und der CO2-Emissionen von Rechenzentren. Das Szenario unserer Arbeit konzentriert sich daher auf die Softwareentwicklung.
Dennoch müssen wir die Entwickler zunächst darauf hinweisen, dass die Software zum Energieverbrauch beiträgt, indem wir ihren Einfluss nachweisen. Der zweite Schritt ist die Bereitstellung von Methoden zur Bewertung des Energieverbrauchs einer Anwendung in den verschiedenen Phasen des Entwicklungsprozesses, um moderne DevOps und agile Entwicklungsmethoden zu ermöglichen. Wir brauchen daher eine automatische Auswahl von Energieverbrauchsmodellen auf Systemebene, die schnelle Änderungen im Quellcode berücksichtigen können, und Modelle auf Anwendungsebene, die es den Entwicklern ermöglichen, stromverbrauchende Softwareteile für ständige Verbesserungen zu lokalisieren. Danach benötigen wir eine Emulation, um die Energieeffizienz vor dem eigentlichen Einsatz zu bewerten
|
10 |
Praxisnahes AI Engineering: Künstliche Intelligenz an einer CP FactoryEichhorn, T., Schreiber, D., Schubert, T., Mrech, H. 19 February 2025 (has links)
Der im Verbund von fünf Hochschulen neu entwickelte Studiengang AI Engineering wird in der Vertiefung
Green Engineering an der Hochschule Merseburg im Bereich Predictive Maintenance und Prozessautomation
umgesetzt. Für die Entwicklung vorrausschauender Instandhaltung wird die CP Factory
in Zusammenarbeit mit Festo Didactic als technische Plattform weiterentwickelt. Etablierte
Ansätze, die Integration von Festo AX an der CP Factory und ein Use Case für Leckagen am Druckluftsystem
werden für die interaktive Lehre vorgestellt. Dazu wurde die Datenerfassung mit einer Mikroservices-
Architektur erweitert und eine direkte Datenbearbeitung in Jupyter Notebooks ermöglicht.
|
Page generated in 0.0374 seconds