Simulationen elektronischer Strukturen ermöglichen die Bestimmung grundlegender Eigenschaften von Materialien ohne jegliche Experimente. Sie zählen deshalb zu den Standardwerkzeugen, mit denen Fortschritte in materialwissenschaftlichen und chemischen Anwendungen vorangetrieben werden. In den letzten Jahrzehnten hat sich die Dichtefunktionaltheorie (DFT) aufgrund ihrer ausgezeichneten Balance zwischen Genauigkeit und Rechenkosten als die beliebteste Simulationstechnik für elektronische Strukturen etabliert. Jedoch verlangen drängende gesellschaftliche und technologische Herausforderungen nach Lösungen für immer komplexere wissenschaftliche Fragestellungen, sodass selbst die effizientesten DFT-Programme nicht mehr in der Lage sind, Antworten in angemessener Zeit und mit den verfügbaren Rechenressourcen zu liefern. Daher wächst das Interesse an Ansätzen des maschinellen Lernens (ML), die darauf abzielen, Modelle bereitzustellen, die die Vorhersagekraft von DFT-Rechnungen zu vernachlässigbaren Kosten replizieren. In dieser Arbeit wird gezeigt, dass solche ML-DFT Ansätze bisher nicht in der Lage sind, das Vorhersagen der elektronischen Struktur von Materialien auf DFT-Niveau vollständig abzubilden. Davon ausgehend wird in dieser Arbeit ein neuer Ansatz für ML-DFT Modelle vorgestellt. Es wird ein umfassendes Framework für das Training von ML-DFT-Modellen auf Grundlage einer lokalen Darstellung der elektronischen Struktur entwickelt, welcher auch Details wie Strategien zur Datengeneration und Hyperparameteroptimierung beinhaltet. Es werden Ergebnisse vorgestellt, die zeigen, dass mit diesem Framework trainierte Modelle die breite Palette der Vorhersagefähigkeit sowie Genauigkeit von DFT-Simulationen zu drastisch reduzierten Kosten replizieren. Weiterhin wird die allgemeine Nützlichkeit dieses Ansatzes demonstriert, indem Modelle über Längenskalen, Phasengrenzen und Temperaturbereiche hinweg angewendet werden.:List of Tables 10
List of Figures 12
Mathematical notation and abbreviations 14
1 Introduction 19
2 Background 23
2.1 Density Functional Theory 23
2.2 Sampling of Observables 35
2.3 Machine Learning and Neural Networks 37
2.4 Hyperparameter Optimization 46
2.5 Density Functional Theory Machine Learning Models 50
3 Scalable Density Functional Theory Machine Learning Models 59
3.1 General Framework 59
3.2 Descriptors 67
3.3 Data Generation 69
3.4 Verification of accuracy 78
3.5 Determination of Hyperparameters 87
4 Transferability and Scalability of Models 99
4.1 Large Length Scales 100
4.2 Phase Boundaries 108
4.3 Temperature Ranges 117
5 Summary and Outlook 131
Appendices 136
A Computational Details of the Materials Learning Algorithms framework 137
B Data Sets, Models, and Hyperparameter Tuning 145
Bibliography 161 / Electronic structure simulations allow researchers to compute fundamental properties of materials without the need for experimentation. As such, they routinely aid in propelling scientific advancements across materials science and chemical applications. Over the past decades, density functional theory (DFT) has emerged as the most popular technique for electronic structure simulations, due to its excellent balance between accuracy and computational cost. Yet, pressing societal and technological questions demand solutions for problems of ever-increasing complexity. Even the most efficient DFT implementations are no longer capable of providing answers in an adequate amount of time and with available computational resources. Thus, there is a growing interest in machine learning (ML) based approaches within the electronic structure community, aimed at providing models that replicate the predictive power of DFT at negligible cost. Within this work it will be shown that such ML-DFT approaches, up until now, do not succeed in fully encapsulating the level of electronic structure predictions DFT provides. Based on this assessment, a novel approach to ML-DFT models is presented within this thesis. An exhaustive framework for training ML-DFT models based on a local representation of the electronic structure is developed, including minute treatment of technical issues such as data generation techniques and hyperparameter optimization strategies. Models found via this framework recover the wide array of predictive capabilities of DFT simulations at drastically reduced cost, while retaining DFT levels of accuracy. It is further demonstrated how such models can be used across differently sized atomic systems, phase boundaries and temperature ranges, underlining the general usefulness of this approach.:List of Tables 10
List of Figures 12
Mathematical notation and abbreviations 14
1 Introduction 19
2 Background 23
2.1 Density Functional Theory 23
2.2 Sampling of Observables 35
2.3 Machine Learning and Neural Networks 37
2.4 Hyperparameter Optimization 46
2.5 Density Functional Theory Machine Learning Models 50
3 Scalable Density Functional Theory Machine Learning Models 59
3.1 General Framework 59
3.2 Descriptors 67
3.3 Data Generation 69
3.4 Verification of accuracy 78
3.5 Determination of Hyperparameters 87
4 Transferability and Scalability of Models 99
4.1 Large Length Scales 100
4.2 Phase Boundaries 108
4.3 Temperature Ranges 117
5 Summary and Outlook 131
Appendices 136
A Computational Details of the Materials Learning Algorithms framework 137
B Data Sets, Models, and Hyperparameter Tuning 145
Bibliography 161
Identifer | oai:union.ndltd.org:DRESDEN/oai:qucosa:de:qucosa:93675 |
Date | 11 September 2024 |
Creators | Fiedler, Lenz |
Contributors | Cowan, Thomas, Cangi, Attila, Cowan, Thomas, Pribram-Jones, Aurora, Technische Universität Dresden |
Source Sets | Hochschulschriftenserver (HSSS) der SLUB Dresden |
Language | English |
Detected Language | English |
Type | info:eu-repo/semantics/acceptedVersion, doc-type:doctoralThesis, info:eu-repo/semantics/doctoralThesis, doc-type:Text |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0028 seconds