Spelling suggestions: "subject:"maschinelles ciernen."" "subject:"maschinelles cavernen.""
191 |
Content-Aware Image Restoration Techniques without Ground Truth and Novel Ideas to Image ReconstructionBuchholz, Tim-Oliver 12 August 2022 (has links)
In this thesis I will use state-of-the-art (SOTA) image denoising methods to denoise electron microscopy (EM) data.
Then, I will present NoiseVoid a deep learning based self-supervised image denoising approach which is trained on single noisy observations.
Eventually, I approach the missing wedge problem in tomography and introduce a novel image encoding, based on the Fourier transform which I am using to predict missing Fourier coefficients directly in Fourier space with Fourier Image Transformer (FIT).
In the next paragraphs I will summarize the individual contributions briefly.
Electron microscopy is the go to method for high-resolution images in biological research.
Modern scanning electron microscopy (SEM) setups are used to obtain neural connectivity maps, allowing us to identify individual synapses.
However, slow scanning speeds are required to obtain SEM images of sufficient quality.
In (Weigert et al. 2018) the authors show, for fluorescence microscopy, how pairs of low- and high-quality images can be obtained from biological samples and use them to train content-aware image restoration (CARE) networks.
Once such a network is trained, it can be applied to noisy data to restore high quality images.
With SEM-CARE I present how this approach can be directly applied to SEM data, allowing us to scan the samples faster, resulting in $40$- to $50$-fold imaging speedups for SEM imaging.
In structural biology cryo transmission electron microscopy (cryo TEM) is used to resolve protein structures and describe molecular interactions.
However, missing contrast agents as well as beam induced sample damage (Knapek and Dubochet 1980) prevent acquisition of high quality projection images.
Hence, reconstructed tomograms suffer from low signal-to-noise ratio (SNR) and low contrast, which makes post-processing of such data difficult and often has to be done manually.
To facilitate down stream analysis and manual data browsing of cryo tomograms I present cryoCARE a Noise2Noise (Lehtinen et al. 2018) based denoising method which is able to restore high contrast, low noise tomograms from sparse-view low-dose tilt-series.
An implementation of cryoCARE is publicly available as Scipion (de la Rosa-Trevín et al. 2016) plugin.
Next, I will discuss the problem of self-supervised image denoising.
With cryoCARE I exploited the fact that modern cryo TEM cameras acquire multiple low-dose images, hence the Noise2Noise (Lehtinen et al. 2018) training paradigm can be applied.
However, acquiring multiple noisy observations is not always possible e.g. in live imaging, with old cryo TEM cameras or simply by lack of access to the used imaging system.
In such cases we have to fall back to self-supervised denoising methods and with Noise2Void I present the first self-supervised neural network based image denoising approach.
Noise2Void is also available as an open-source Python package and as a one-click solution in Fiji (Schindelin et al. 2012).
In the last part of this thesis I present Fourier Image Transformer (FIT) a novel approach to image reconstruction with Transformer networks.
I develop a novel 1D image encoding based on the Fourier transform where each prefix encodes the whole image at reduced resolution, which I call Fourier Domain Encoding (FDE).
I use FIT with FDEs and present proof of concept for super-resolution and tomographic reconstruction with missing wedge correction.
The missing wedge artefacts in tomographic imaging originate in sparse-view imaging.
Sparse-view imaging is used to keep the total exposure of the imaged sample to a minimum, by only acquiring a limited number of projection images.
However, tomographic reconstructions from sparse-view acquisitions are affected by missing wedge artefacts, characterized by missing wedges in the Fourier space and visible as streaking artefacts in real image space.
I show that FITs can be applied to tomographic reconstruction and that they fill in missing Fourier coefficients.
Hence, FIT for tomographic reconstruction solves the missing wedge problem at its source.:Contents
Summary iii
Acknowledgements v
1 Introduction 1
1.1 Scanning Electron Microscopy . . . . . . . . . . . . . . . . . . . . 3
1.2 Cryo Transmission Electron Microscopy . . . . . . . . . . . . . . . 4
1.2.1 Single Particle Analysis . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Cryo Tomography . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Tomographic Reconstruction . . . . . . . . . . . . . . . . . . . . . 8
1.4 Overview and Contributions . . . . . . . . . . . . . . . . . . . . . 11
2 Denoising in Electron Microscopy 15
2.1 Image Denoising . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Supervised Image Restoration . . . . . . . . . . . . . . . . . . . . 19
2.2.1 Training and Validation Loss . . . . . . . . . . . . . . . . 19
2.2.2 Neural Network Architectures . . . . . . . . . . . . . . . . 21
2.3 SEM-CARE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 SEM-CARE Experiments . . . . . . . . . . . . . . . . . . 23
2.3.2 SEM-CARE Results . . . . . . . . . . . . . . . . . . . . . 25
2.4 Noise2Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5 cryoCARE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.1 Restoration of cryo TEM Projections . . . . . . . . . . . . 27
2.5.2 Restoration of cryo TEM Tomograms . . . . . . . . . . . . 29
2.5.3 Automated Downstream Analysis . . . . . . . . . . . . . . 31
2.6 Implementations and Availability . . . . . . . . . . . . . . . . . . 32
2.7 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.7.1 Tasks Facilitated through cryoCARE . . . . . . . . . . . 33
3 Noise2Void: Self-Supervised Denoising 35
3.1 Probabilistic Image Formation . . . . . . . . . . . . . . . . . . . . 37
3.2 Receptive Field . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Noise2Void Training . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3.1 Implementation Details . . . . . . . . . . . . . . . . . . . . 41
3.4 Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4.1 Natural Images . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4.2 Light Microscopy Data . . . . . . . . . . . . . . . . . . . . 44
3.4.3 Electron Microscopy Data . . . . . . . . . . . . . . . . . . 47
3.4.4 Errors and Limitations . . . . . . . . . . . . . . . . . . . . 48
3.5 Conclusion and Followup Work . . . . . . . . . . . . . . . . . . . 50
4 Fourier Image Transformer 53
4.1 Transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.1.1 Attention Is All You Need . . . . . . . . . . . . . . . . . . 55
4.1.2 Fast-Transformers . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.3 Transformers in Computer Vision . . . . . . . . . . . . . . 57
4.2 Methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Fourier Domain Encodings (FDEs) . . . . . . . . . . . . . 57
4.2.2 Fourier Coefficient Loss . . . . . . . . . . . . . . . . . . . . 59
4.3 FIT for Super-Resolution . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.1 Super-Resolution Data . . . . . . . . . . . . . . . . . . . . 60
4.3.2 Super-Resolution Experiments . . . . . . . . . . . . . . . . 61
4.4 FIT for Tomography . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.1 Computed Tomography Data . . . . . . . . . . . . . . . . 64
4.4.2 Computed Tomography Experiments . . . . . . . . . . . . 66
4.5 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5 Conclusions and Outlook 71
|
192 |
Data Augmentation GUI Tool for Machine Learning ModelsSharma, Sweta 30 October 2023 (has links)
The industrial production of semiconductor assemblies is subject to high requirements. As a result, several tests are needed in terms of component quality. In the long run, manual quality assurance (QA) is often connected with higher expenditures. Using a technique based on machine learning, some of these tests may be carried out automatically. Deep neural networks (NN) have shown to be very effective in a diverse range of computer vision applications. Especially convolutional neural networks (CNN), which belong to a subset of NN, are an effective tool for image classification. Deep NNs have the disadvantage of requiring a significant quantity of training data to reach excellent performance. When the dataset is too small a phenomenon known as overfitting can occur. Massive amounts of data cannot be supplied in certain contexts, such as the production of semiconductors. This is especially true given the relatively low number of rejected components in this field. In order to prevent overfitting, a variety of image augmentation methods may be used to the process of artificially creating training images. However, many of those methods cannot be used in certain fields due to their inapplicability. For this thesis, Infineon Technologies AG provided the images of a semiconductor component generated by an ultrasonic microscope. The images can be categorized as having a sufficient number of good and a minority of rejected components, with good components being defined as components that have been deemed to have passed quality control and rejected components being components that contain a defect and did not pass quality control.
The accomplishment of the project, the efficacy with which it is carried out, and its level of quality may be dependent on a number of factors; however, selecting the appropriate tools is one of the most important of these factors because it enables significant time and resource savings while also producing the best results. We demonstrate a data augmentation graphical user interface (GUI) tool that has been widely used in the domain of image processing. Using this method, the dataset size has been increased while maintaining the accuracy-time trade-off and optimizing the robustness of deep learning models. The purpose of this work is to develop a user-friendly tool that incorporates traditional, advanced, and smart data augmentation, image processing,
and machine learning (ML) approaches. More specifically, the technique mainly uses
are zooming, rotation, flipping, cropping, GAN, fusion, histogram matching,
autoencoder, image restoration, compression etc. This focuses on implementing and
designing a MATLAB GUI for data augmentation and ML models. The thesis was
carried out for the Infineon Technologies AG in order to address a challenge that all
semiconductor industries experience. The key objective is not only to create an easy-
to-use GUI, but also to ensure that its users do not need advanced technical
experiences to operate it. This GUI may run on its own as a standalone application.
Which may be implemented everywhere for the purposes of data augmentation and
classification. The objective is to streamline the working process and make it easy to
complete the Quality assurance job even for those who are not familiar with data
augmentation, machine learning, or MATLAB. In addition, research will investigate the
benefits of data augmentation and image processing, as well as the possibility that
these factors might contribute to an improvement in the accuracy of AI models.
|
193 |
Machine learning methods for genomic high-content screen data analysis applied to deduce organization of endocytic networkNikitina, Kseniia 13 July 2023 (has links)
High-content screens are widely used to get insight on mechanistic organization of biological systems. Chemical and/or genomic interferences are used to modulate molecular machinery, then light microscopy and quantitative image analysis yield a large number of parameters describing phenotype. However, extracting functional information from such high-content datasets (e.g. links between cellular processes or functions of unknown genes) remains challenging. This work is devoted to the analysis of a multi-parametric image-based genomic screen of endocytosis, the process whereby cells uptake cargoes (signals and nutrients) and distribute them into different subcellular compartments. The complexity of the quantitative endocytic data was approached using different Machine Learning techniques, namely, Clustering methods, Bayesian networks, Principal and Independent component analysis, Artificial neural networks. The main goal of such an analysis is to predict possible modes of action of screened genes and also to find candidate genes that can be involved in a process of interest. The degree of freedom for the multidimensional phenotypic space was identified using the data distributions, and then the high-content data were deconvolved into separate signals from different cellular modules. Some of those basic signals (phenotypic traits) were straightforward to interpret in terms of known molecular processes; the other components gave insight into interesting directions for further research. The phenotypic profile of perturbation of individual genes are sparse in coordinates of the basic signals, and, therefore, intrinsically suggest their functional roles in cellular processes. Being a very fundamental process, endocytosis is specifically modulated by a variety of different pathways in the cell; therefore, endocytic phenotyping can be used for analysis of non-endocytic modules in the cell. Proposed approach can be also generalized for analysis of other high-content screens.:Contents
Objectives
Chapter 1 Introduction
1.1 High-content biological data
1.1.1 Different perturbation types for HCS
1.1.2 Types of observations in HTS
1.1.3 Goals and outcomes of MP HTS
1.1.4 An overview of the classical methods of analysis of biological HT- and HCS data
1.2 Machine learning for systems biology
1.2.1 Feature selection
1.2.2 Unsupervised learning
1.2.3 Supervised learning
1.2.4 Artificial neural networks
1.3 Endocytosis as a system process
1.3.1 Endocytic compartments and main players
1.3.2 Relation to other cellular processes
Chapter 2 Experimental and analytical techniques
2.1 Experimental methods
2.1.1 RNA interference
2.1.2 Quantitative multiparametric image analysis
2.2 Detailed description of the endocytic HCS dataset
2.2.1 Basic properties of the endocytic dataset
2.2.2 Control subset of genes
2.3 Machine learning methods
2.3.1 Latent variables models
2.3.2 Clustering
2.3.3 Bayesian networks
2.3.4 Neural networks
Chapter 3 Results
3.1 Selection of labeled data for training and validation based on KEGG information about genes pathways
3.2 Clustering of genes
3.2.1 Comparison of clustering techniques on control dataset
3.2.2 Clustering results
3.3 Independent components as basic phenotypes
3.3.1 Algorithm for identification of the best number of independent components
3.3.2 Application of ICA on the full dataset and on separate assays of the screen
3.3.3 Gene annotation based on revealed phenotypes
3.3.4 Searching for genes with target function
3.4 Bayesian network on endocytic parameters
3.4.1 Prediction of pathway based on parameters values using Naïve Bayesian Classifier
3.4.2 General Bayesian Networks
3.5 Neural networks
3.5.1 Autoencoders as nonlinear ICA
3.5.2 siRNA sequence motives discovery with deep NN
3.6 Biological results
3.6.1 Rab11 ZNF-specific phenotype found by ICA
3.6.2 Structure of BN revealed dependency between endocytosis and cell adhesion
Chapter 4 Discussion
4.1 Machine learning approaches for discovery of phenotypic patterns
4.1.1 Functional annotation of unknown genes based on phenotypic profiles
4.1.2 Candidate genes search
4.2 Adaptation to other HCS data and generalization
Chapter 5 Outlook and future perspectives
5.1 Handling sequence-dependent off-target effects with neural networks
5.2 Transition between machine learning and systems biology models
Acknowledgements
References
Appendix
A.1 Full list of cellular and endocytic parameters
A.2 Description of independent components of the full dataset
A.3 Description of independent components extracted from separate assays of the HCS
|
194 |
Systematic Review of Deep Learning and Machine Learning for Building EnergyArdabili, Sina, Abdolalizadeh, Leila, Mako, Csaba, Torok, Bernat, Mosavi, Amir 02 February 2024 (has links)
The building energy (BE) management plays an essential role in urban sustainability and smart cities. Recently, the novel data science and data-driven technologies have shown significant progress in analyzing the energy consumption and energy demand datasets for a smarter energy management. The machine learning (ML) and deep learning (DL) methods and applications, in particular, have been promising for the advancement of accurate and high-performance energy models. The present study provides a comprehensive review of ML- and DL-based techniques applied for handling BE systems, and it further evaluates the performance of these techniques. Through a systematic review and a comprehensive taxonomy, the advances of ML and DL-based techniques are carefully investigated, and the promising models are introduced. According to the results obtained for energy demand forecasting, the hybrid and ensemble methods are located in the high-robustness range, SVM-based methods are located in good robustness limitation, ANN-based methods are located in medium-robustness limitation, and linear regression models are located in low-robustness limitations. On the other hand, for energy consumption forecasting, DL-based, hybrid, and ensemble-based models provided the highest robustness score. ANN, SVM, and single ML models provided good and medium robustness, and LR-based models provided a lower robustness score. In addition, for energy load forecasting, LR-based models provided the lower robustness score. The hybrid and ensemble-based models provided a higher robustness score. The DL-based and SVM-based techniques provided a good robustness score, and ANNbased techniques provided a medium robustness score.
|
195 |
Analyse der Laserscanner-basierten Spurwechseldetektion im Kontext des hochautomatisierten FahrensZeisler, Jöran H. 13 July 2022 (has links)
Mit der Einführung hochautomatisierter Assistenzfunktionen soll Fahrzeugführern in naher Zukunft eine Abwendung von der Fahraufgabe ermöglicht werden. Neben der Steigerung des individuellen Komforts besteht die Erwartung an eine gleichzeitig erhöhte oder zumindest vergleichbare Sicherheitsbilanz im weiterhin öffentlichen Straßenverkehr. Um eine langfristige, systemische Verantwortungsübernahme zur Verkehrsbeobachtung und Reaktion zu realisieren, muss die durchgängige Beherrschbarkeit erwartbarer Situationen ohne Fahrereingriff in der ausgewiesenen Betriebsdomäne sichergestellt werden. Für die Motor- und Bremsenansteuerung des Egofahrzeugs ist dabei die Erfassung und Auswahl relevanter Verkehrsteilnehmer eine entscheidende Herausforderung - insbesondere bei Einschermanövern in die eigene Spur. Sie kann je nach Kritikalität der eintretenden Situation und in Abhängigkeit von der Reaktionsfähigkeit zur Kollision führen. Den technisch-sicherheitsrelevanten Anforderungen zur Realisierung einer fahrerlosen Steuerung stehen den Automobilherstellern dabei u.a. die wirtschaftlichen und normativen Vorgaben gegenüber: Unter Verwendung zahlreicher Steuergeräte und Sensoren, die vorverarbeitete Informationen der erfassten Objekte liefern, muss eine hinreichende Erfüllung der gesetzlichen und marktspezifischen Anforderungen zum Serieneinsatz unter gleichzeitiger Berücksichtigung des Aufwands erfolgen.
Ziel der vorliegenden Arbeit ist die Analyse der notwendigen sensorischen Leistungsfähigkeit zur rechtzeitigen Detektion von Spurwechseln anderer Verkehrsteilnehmer in der Betriebsdomäne einer hochautomatisierten Fahrfunktion zur Ermöglichung einer kollisionsvermeidenden Bremsreaktion. Neben der Darstellung der spezifischen Anforderungen dieser Assistenzstufe im Vergleich zu in Serie befindlichen Systemen wird im ersten Schritt die menschliche Leistungsfähigkeit aus zwei Simulatorstudien bestimmt, um eine Vergleichbarkeit der Risikobilanz für die nachfolgenden Modelle zu ermöglichen. Im nächsten Schritt werden aus den analysierten Eigenschaften der Spurwechselcharakteristik, den Normen zur Straßenanlage und den Bewegungen des sensortragenden Egofahrzeugs die Anforderungen an den sensorisch abzudeckenden Merkmalsraum formuliert. Unter Zuhilfenahme einer existierenden, algorithmischen Modellierung mittels Bayesschen Netzen können die sensorischen Daten zur Erkennung des Spurwechselvorgangs probabilistisch überführt werden. Die Parametrierung des Modells wird im Umfang dieser Arbeit unter Einbezug von Realdaten maschinell trainiert und eine Steigerung der Sensitivität ermöglicht. Für die individuellen, fehlerbehafteten sensorischen Eingangsgrößen wird folglich die Eignung im Gesamtkontext der Spurwechselerkennung simulativ untersucht und in Feldversuchen mit übergeordneter Genauigkeit bewertet. Dabei wird abschließend der für den Automobileinsatz bestimmte und einführend vorgestellte Laserscanner Ibeo ScaLa evaluiert. Die Bewertung der ermittelten Genauigkeiten der Objektdetektion sowie der bereitgestellten Fehlerschätzung erfolgen in Bezug zur erwarteten Risikobilanz des hochautomatisierten Fahrens.
Als Ergebnis dieser Arbeit kann für die Spurwechseldetektion anderer Verkehrsteilnehmer neben der ermittelten Reaktionsleistung menschlicher Fahrer auch die damit verbundene, weitreichende Anforderungserfüllung für den betrachteten Laserscanner attestiert werden. Die in Extremfällen fehlende Abdeckung im Randbereich des Sichtfeldes lässt sich durch einfache Erweiterungen in der Fahrstrategie der hochautomatisierten Betriebsdomäne beherrschen. Die experimentell ermittelten Gütemaße erlauben eine Detektion der erwartbaren Spurwechsel bis zu einer durch das verbesserte Modell limitierten Dynamikgrenze. Kollisionen können bei kritischen Spurwechseln bis zu dieser Einschränkung vermieden werden.
|
196 |
Bildgebende Fluoreszenzspektroskopie als Sensortechnologie für die Verwertung schwarzer KunststoffeGruber, Florian 10 October 2022 (has links)
Sekundärrohstoffe und darauf aufbauende Rohstoffkreisläufe erlangen, bedingt durch die Endlichkeit der Primärrohstoffe, steigende Preise und eine zunehmende Umweltbelastung durch fehlendes Recycling, eine immer stärkere Bedeutung in der nationalen und globalen Wirtschaft ein. Darüber hinaus wird die Notwendigkeit geschlossener Rohstoffkreisläufe auch politisch und gesellschaftlich durch die Forderung eines nachhaltigen Wirtschaftens abgebildet. Nicht zuletzt für die Einhaltung der Klimaschutzziele sind geschlossene Roh-stoffkreisläufe von entscheidender Bedeutung. Neben Metallen sind insbesondere Kunststoffe Materialien, die in eine ökonomische Wiederverwertung eingebracht werden können und sollten. Eine Vielzahl technischer Kunststoffe bestehen jedoch aus einem Materialmix verschiedener Kunststoffe und Additive und liegen somit als Komposite oder Hybridbauteile vor. Oftmals enthalten diese Kunststoffe einen Rußanteil zur Schwarzfärbung. Jedoch können gerade schwarze Kunststoffe kaum mittels klassischer optischer Methoden hinreichend genau klassifiziert werden. Trotz des hohen Materialwertes solcher technischen Kunststoffe sind diese daher derzeit nur teilweise oder gar nicht ökonomisch wiederverwertbar. Hauptgrund dafür ist, dass eine zuverlässig arbeitende Sensortechnologie zur Sortierung unterschiedlichster, aber insbesondere schwarzer Kunststoffmischungen nicht verfügbar ist.
Das Ziel dieses Promotionsvorhabens ist daher die Entwicklung und Evaluierung einer schnellen und zuverlässigen Erkennungstechnologie für die Klassifizierung schwarzer Kunststoffgemische mit hoher Genauigkeit (bis zu 99,9 %) und einem hohen Durchsatz. Die Basis dafür bildet die bildgebende Laser-Fluoreszenzspektroskopie in Kombination mit künstlicher Intelligenz. Insbesondere soll die zu entwickelnde Technologie die Sortierung kleiner Partikel ermöglichen, wie sie beispielsweise bei der Zerkleinerung von Kompositbauteilen anfallen.
Die Entwicklung der Methode zur Klassifizierung schwarzer Kunststoffe erfolgte anhand von zwölf Kunststoffklassen und wurde in drei Schritten durchgeführt. Zuerst wurden die Kunststoffe mit einer Reihe klassischer Spektroskopieverfahren untersucht. Einsatz der Raman-Spektroskopie deutete sich bereits an, dass die Kunststoffe teilweise eine Fluoreszenz aufweisen. Weitere Messungen der Fluoreszenz in Abhängigkeit der Anregungswellenlänge bestätigten dieses Verhalten und zeigten, dass für Anregungswellenlängen zwischen rund 500 nm und 600 nm die stärkste Fluoreszenz erhalten wird.
Im nächsten Schritt wurde ein Labordemonstrator entwickelt und evaluiert, um die grundlegende Machbarkeit der Methode nachzuweisen. Der Labord-emonstrator arbeitet mit einer Hyperspektralkamera für den sichtbaren und nahinfraroten Spektralbereich, einer zeilenförmigen Laseranregung und einer zusätzlichen nahinfrarot Beleuchtung. Die Nahinfrarotbeleuchtung ermöglicht dabei eine bessere Erkennung der Position und Form der Kunststoffpartikel, insbesondere wenn diese kein oder nur ein schwaches Fluoreszenzsignal aufweisen. Für die Versuche wurden zwei Laser mit einer Wellenlänge von 532 nm und 450 nm eingesetzt. Das entwickelte System wurde kalibriert und charakterisiert und anschließend wurden Messungen von schwarzen Kunststoffpartikeln aus 12 Kunststoffklassen durchgeführt und die erhaltenen Daten wurden für Klassifikationsversuche eingesetzt.
Bei diesen Klassifikationsexperimenten wurde die Gesamtgenauigkeit bei der Klassifikation aller zwölf Kunststoffklassen betrachtet und es erfolgte die Untersuchung unterschiedlicher Klassifikationsalgorithmen, unterschiedlicher Arten der Datenvorverarbeitung, sowie einer automatischen Optimierung der Hyperparameter der Klassifikationsalgorithmen. Die gleichzeitige Klassifikation aller 12 Kunststoffklassen ist im späteren Einsatz nicht relevant, da meist nur zwei bis drei Kunststoffarten gleichzeitig erkannt und sortiert werden müssen. Die durchgeführten Versuche dienten daher hauptsächlich dem grundsätzlichen Nachweis der Leistungsfähigkeit der Methode und dem Vergleich der unterschiedlichen Methoden des maschinellen Lernens und der Datenvorverarbeitung. Bei den betrachteten Klassifikationsalgorithmen handelt es sich um die Diskriminanzanalyse (DA), die k-Nächste-Nachbarn-Klassifikation (kNN), Ensembles von Entscheidungsbäumen (ENSEMBLE), Support Vector Machines (SVM) und Convolutional Neural Networks (CNN). Die Optimierung der Hyperparameter erfolgte durch zwei Verfahren: Random Search und Bayesian Optimization Algorithm. Es zeigte sich, dass die besten Klassifikationsgenauigkeiten für den CNN-, gefolgt von ENSEMBLE- und SVM-Algorithmus, erzielt werden können. Die höchste erhaltene Genauigkeit lag für den 450 nm Laser mit 93,5 % über der des 532 nm Lasers mit 87,9 %.
Um eine realistische Einschätzung der Klassifikationsgenauigkeit für die im Anwendungsfall auftretenden Mischungen aus zwei bis drei Kunststoffklassen zu erhalten, wurden auch 41 Kunststoffmischungen hinsichtlich ihrer Klassifizierbarkeit untersucht. Bei diesen 41 Mischungen handelt es sich um industriell relevante Kombinationen der zwölf betrachteten Kunststoffklassen. Für nahezu alle der industriell relevanten Kunststoffmischungen konnte die Klassifikationsgenauigkeit von > 99,9 % erreicht werden.
Aufbauend auf diesen Erkenntnissen wurde daher im dritten Schritt der vorliegenden Arbeit das Sensorsystem für einen industrienahen Demonstrator für die Sortierung schwarzer Kunststoffpartikel unter anwendungsnahen Bedingungen entwickelt, aufgebaut und evaluiert. Der entwickelte industrienahe Demonstrator wurde kalibriert und charakterisiert und anschließend wurden erneut Messungen der schwarzen Kunststoffpartikel durchgeführt. Mit den erhaltenen Daten wurden anschließend erneut Klassifikationsmodelle trainiert, optimiert und validiert.
Die Ergebnisse der Klassifikationsversuche zeigen, dass die erhaltenen Genauigkeiten für das Demonstratorsystem geringer als für den Labordemonstrator ausfallen. Trotzdem konnte mit den besten Messparametern für fünf Mischungen, welche mit derzeitigen Methoden nicht sortierbar sind, eine sehr gute Klassifikationsgenauigkeit von > 99 % erreicht werden.
Insgesamt sind die mit dem entwickelten industrienahen Demonstratorsystem erhaltenen Ergebnisse sehr vielversprechend. Für viele industriell relevante Kunststoffmischungen konnte bereits eine ausreichend hohe Klassifikationsgenauigkeit demonstriert werden. Es ist abzusehen, dass der entwickelte industrielle Demonstrator, mit nur wenigen, aber sehr effektiven Hardwaremodifikationen, auch für die Sortierung vieler weiterer Kunststoffmischungen eingesetzt werden kann. Es wurde also erfolgreich ein System zur Erkennung und Klassifizierung schwarzer Kunststoffpartikel entwickelt, welches ein ökonomisch sinnvolles Recycling dieser Kunststoffe ermöglicht und damit signifikant zum Aufbau einer nachhaltigen Kreislaufwirtschaft beitragen kann.:Inhaltsverzeichnis
Inhaltsverzeichnis I
Abbildungsverzeichnis V
Tabellenverzeichnis XIII
Abkürzungsverzeichnis XX
Symbolverzeichnis XXIII
1 Einleitung 1
2 Theoretische Grundlagen 5
2.1 Stand der Technik des Kunststoffrecyclings 5
2.2 Kunststoffe 14
2.2.1 Eingesetzte Kunststoffe 15
2.2.2 Zusatzstoffe für Kunststoffe 17
2.2.3 Ökologische und Ökonomische Aspekte des Recyclings von Kunststoffen 18
2.3 Optische Spektroskopie 22
2.3.1 Grundlagen der Spektroskopie 22
2.3.2 Methoden der optische Spektroskopie 28
2.3.3 Hyperspektrale Bildgebung 30
2.3.4 Grundlagen zur Charakterisierung eines (Laser-)HSI Systems 32
2.4 Multivariate Datenanalyse 38
2.4.1 Datenvorverarbeitung, Datenreduktion und Explorative Datenanalyse 39
2.4.2 Klassifikationsalgorithmen 47
2.4.3 Hyperparameteroptimierung 61
2.4.4 Validierung von Klassifikationsverfahren 64
3 Experimentelle Durchführung 73
3.1 Untersuchte Kunststoffe 73
3.1.1 Eingesetzte Kunststoffgranulate 73
3.1.2 Kunststoffmischungen 74
3.2 Hardwarekonfiguration der entwickelten Laser-HSI-Systeme 76
3.2.1 Hardwarekonfiguration des Laser-HSI-Laborsystems 76
3.2.2 Hardwarekonfiguration des Laser-HSI-Demonstratorsystems 78
3.3 Eingesetzte Software und Computer-Hardware 80
3.3.1 imanto®Pro 80
3.3.2 Matlab® 81
3.3.3 Eingesetzte Computer-Hardware 81
3.4 Durchgeführte Messung mit den Laser-HSI-Systemen 82
3.4.1 Messung der schwarzen Kunststoffe mit dem Laser-HSI-Laborsystem 82
3.4.2 Messung der schwarzen Kunststoffe mit dem Laser-HSI-Demonstratorsystem 83
3.4.3 Verfügbarkeit der Daten 83
3.5 Spektroskopische Charakterisierung der Kunststoffproben 84
3.5.1 Fluoreszenz-Spektroskopie 84
3.5.2 Raman-Spektroskopie 84
3.5.3 Laser-HSI 85
4 Ergebnisse und Diskussion 88
4.1 Das Laser-HSI-Laborsystem 89
4.1.1 Anregungseinheit 89
4.1.2 System zur Strahlaufweitung 91
4.1.3 Detektionseinheit 94
4.1.4 Charakterisierung und Kalibrierung des bildgebenden Spektrometers 95
4.1.5 NIR-Beleuchtung 102
4.2 Laser-HSI-Demonstratorsystem zur Klassifikation schwarzer Kunststoffe 103
4.2.1 Anforderungen an das Demonstratorsystem 103
4.2.2 Aufbau des Sensormoduls des Demonstratorsystems 106
4.2.3 Kalibrierung und Charakterisierung des Sensormoduls des Demonstratorsystems 107
4.3 Spektroskopische Charakterisierung der schwarzen Kunststoffe 110
4.3.1 Fluoreszenz- und Raman-spektroskopische Untersuchungen der Kunststoffpartikel 111
4.3.2 Untersuchungen schwarzer Kunststoffpartikel mit dem Laser-HSI-Laborsystem 118
4.4 Klassifikations- und Optimierungsexperimente mit dem Laser-HSI-Laborsystem 124
4.4.1 Datenvorverarbeitung und Beschreibung der Daten 125
4.4.2 Explorative Datenanalyse 128
4.4.3 Untersuchungen zur Klassifikation der schwarzen Kunststoffe mit dem Laser-HSI-Laborsystem 135
4.4.4 Klassifikationsexperimente mittels klassischer Machine Learning-Verfahren 136
4.4.5 Hyperparameteroptimierung für die klassischen Machine Learning Verfahren 149
4.4.6 Untersuchung der Klassifikation durch Deep Learning Verfahren 157
4.4.7 Hyperparameteroptimierung für die Deep Learning-Verfahren 171
4.4.8 Vergleich und Diskussion der erhaltenen Klassifikationsmodelle 175
4.4.9 Übertragung der Ergebnisse auf die Klassifikation der industriell relevanten Kunststoffmischungen 177
4.4.10 Zusammenfassung 185
4.5 Untersuchungen zur Klassifikation der schwarzen Kunststoffe mit dem Demonstratorsystem 186
4.5.1 Beschreibung der Messungen mit dem Demonstratorsystem 186
4.5.2 Datenvorverarbeitung 190
4.5.3 Explorative Datenanalyse 193
4.5.4 Klassifikation der Kunststoffmischungen 198
4.5.5 Möglichkeiten für die Verbesserung der Klassifikationsgenauigkeit des Demonstratorsystems 210
5 Zusammenfassung und Ausblick 212
6 Literaturverzeichnis 219
7 Anhang I
7.1 Parameter der Raman-Messung der Kunststoffe I
7.2 Anregungs-Emissions-Matrices der schwarzen Kunststoffe II
7.3 Laser-HSI-Messungen IV
7.4 Modellparameter und Modellhyperprameter XII
7.5 Anderson-Darling-Test auf Normalverteilung XIX
7.5.1 Einfluss der Anzahl der verwendeten Hauptkomponenten XIX
7.5.2 Einfluss verschiedener Datenvorverarbeitungsmethoden XIX
7.5.3 Einfluss der Formparameter XXI
7.5.4 Durchführung der Hyperparameteroptimierung für das klassische Machine Learning XXI
7.5.5 Einfluss der Bildvorverarbeitung XXII
7.5.6 Einfluss der CNN-Topologie XXIII
7.5.7 Einfluss der Daten-Augmentierung XXIV
7.5.8 Durchführung der Hyperparameteroiptimierung für die Deep Learning-Verfahren XXIV
7.5.9 Vergleich und Diskussion der erhaltenen Klassifikationsmodelle XXV
7.6 Brown-Forsythe-Test auf Homoskedastizität XXV
7.6.1 Einfluss der Anzahl der verwendeten Hauptkomponenten XXV
7.6.2 Einfluss verschiedener Datenvorverarbeitungsmethoden XXV
7.6.3 Einfluss der Formparameter XXVI
7.6.4 Durchführung der Hyperparameteroptimierung für das klassische Machine Learning XXVI
7.6.5 Einfluss der Bildvorverarbeitung XXVII
7.6.6 Einfluss der CNN-Topologie XXVII
7.6.7 Einfluss der Daten-Augmentierung XXVII
7.6.8 Durchführung der Hyperparameteroptimierung für die Deep Learning-Verfahren XXVII
7.6.9 Vergleich und Diskussion der erhaltenen Klassifikationsmodelle XXVIII
7.7 Ergebnisse der Klassifikationsversuche mit den Daten des industrienahen Demonstrators XXVIII
|
197 |
Learning General Concept Inclusions in Probabilistic Description LogicsKriegel, Francesco 20 June 2022 (has links)
Probabilistic interpretations consist of a set of interpretations with a shared domain and a measure assigning a probability to each interpretation. Such structures can be obtained as results of repeated experiments, e.g., in biology, psychology, medicine, etc. A translation between probabilistic and crisp description logics is introduced and then utilised to reduce the construction of a base of general concept inclusions of a probabilistic interpretation to the crisp case for which a method for the axiomatisation of a base of GCIs is well-known.
|
198 |
Evaluating Operational Effects of Innovations in Rail Freight Service Networks using Machine LearningPollehn, Tobias 28 May 2024 (has links)
Der Trend zu kleinteiligeren und kapitalintensiveren Transportgütern führt in Kombination mit der in Europa angestrebten Reduktion von Treibhausgasemissionen im Transportsektor zu einer Zunahme der Bedeutung von effizienten Konsolidierungsnetzwerken des Schienengüterverkehrs. Zugehörige Produktionsformen mit Bündelung von Warenströmen wie der Einzelwagenverkehr und der intermodale Verkehr sind somit erfolgskritisch für die Zukunftsfähigkeit des Schienengüterverkehrs. Deren Wettbewerbsfähigkeit kann durch die Einführung und Nutzung von Innovationen gestärkt werden. Beispiele hierfür sind eine Digitale Automatische Kupplung (DAK) sowie Sensoren an Güterwagen und Lokomotiven. Diese Innovationen werden oftmals von einem hohen monetären Aufwand sowie Unsicherheiten hinsichtlich ihrer genauen betrieblichen Wirkung in den Netzwerken begleitet. Für strategische Entscheidungen hinsichtlich einer Einführung solcher Innovationen sind die ökonomischen und betrieblichen Effekte für gezielte Nutzen-Kosten-Betrachtungen aufzuzeigen sowie mögliche Pfade für eine Migration der jeweiligen Innovation für die Produktionsformen und deren zugehörigen Netzwerke zu eruieren. Dabei sind insbesondere die Veränderungen im sogenannten Service Network Design (SND) von großer Bedeutung. Das SND ist Teil der taktischen Netzwerkplanung und definiert das Zuggerüst sowie die Wagenroutenplanung im Netzwerk. Dabei werden die Kosten für den Betrieb von Netzwerken unter Einhaltung definierter Qualitätsstandards minimiert. Das Ergebnis des SND stellt den Rahmen für konkrete Wagenrouten in der betrieblichen Durchführung dar und definiert das zu behandelnde Zuggerüst in den Bündelungsknoten der Netzwerke. Trotz der wichtigen Funktion des SND, ist dieser taktische Planungsprozess in der Praxis noch stark manuell geprägt und daher zeitaufwändig. Außerdem liefert er oft zu ungenaue Aussagen. Das trifft insbesondere auf Aussagen zu den Netzeffekten durch Innovationen zu. Aufgrund der hohen Komplexität von Konsolidierungsnetzwerken des Schienengüterverkehrs und fehlender EDV-Unterstützung basieren Betrachtungen zu den Effekten von Innovationen in Netzwerken im Status Quo auf Expertenbefragungen und Abschätzungen. Insbesondere für Innovationen, deren Migration mit weitreichenden Prozessänderungen im Netzwerk und neuen Betriebsstrategien verbunden ist, bedarf es jedoch objektiver modellbasierter Verfahren zur Entscheidungsunterstützung. Durch deren Einsatz könnten die Auswirkungen in Bezug auf Netzwerkstrukturen und Kosten ermittelt und für Entscheidungsträger:innen transparent dargestellt werden. Die vorliegende Dissertation leistet einen wissenschaftlichen Beitrag, um dieses Potenzial zu erschließen. Hierfür wird im Rahmen der Dissertation eine neue Methode als Beitrag zur Entscheidungsunterstützung für die Einführung und Migration von Innovationen in Konsolidierungsnetzwerken des Schienengüterverkehrs entwickelt: TRENO (TRansparent Evaluation of InNOvation Effects in Rail Freight Service Networks). Die Methode kombiniert dabei eisenbahnbetriebswissenschaftliche Grundlagen mit Ansätzen aus dem Operations Research und dem maschinellen Lernen. Prozessveränderungen durch Innovationen werden analysiert und in einem neuartigen mathematischen Optimierungsmodell für das SND abgebildet. Das Modell ermöglicht die Definition von verschiedenen Betriebsstrategien im Netzwerk und bildet erstmals zeitbezogene Infrastrukturnutzungen von Zügen in den Knoten des Netzwerks ab. Da die Einführung von Innovationen mit hoher Unsicherheit hinsichtlich der Annahmen und Eingangsparameter verbunden ist, sind zahlreiche Szenarien für eine fundierte Entscheidungsunterstützung zu definieren und zu bewerten. Aufgrund der hohen Komplexität von SND Modellen sind Berechnungen mittels mathematischer Optimierung sehr zeitintensiv. Daher nutzt TRENO Klassifizierungs- und Regressionsmodelle aus dem Bereich des maschinellen Lernens, welche die mathematische Optimierung ergänzen. Auf Basis eines Pools von Szenarien, für welche optimale Netzwerkstrukturen mithilfe mathematischer Optimierung berechnet wurden, lernen die Klassifizierungs- und Regressionsmodelle den Zusammenhang zwischen Eingangsdaten und den resultierenden Kennzahlen des Netzwerks. Nach diesem Training können die Modelle dazu eingesetzt werden, die Kennzahlen von Netzwerken (insbesondere Kosten, Zuggerüste sowie Auslastungen von Zügen und Bündelungsknoten) für zahlreiche neue Szenarien innerhalb von Sekunden vorherzusagen. Dies stellt eine maßgebliche Beschleunigung gegenüber der mathematischen Optimierung dar. Die Klassifizierungsmodelle werden genutzt, um die grundsätzliche (Un-)Lösbarkeit eines Szenarios vorherzusagen, die beispielsweise durch unzureichende Kapazitäten in den Zugbildungsanlagen resultieren kann. Die Regressionsmodelle prognostizieren spezifische metrische Kennzahlen des Netzwerks wie Kosten, Zuggerüste und Kapazitätsauslastungen. Neben dieser Kernfunktionalität von TRENO ermöglicht die Integration der SHAP Methode (shapley additive explanations) eine Analyse bezüglich des Einflusses der Eingangsparameter auf die Kennzahlen eines Konsolidierungsnetzwerks. Dies erlaubt den Aufbau eines tiefgründigen Verständnisses der Wirkungszusammenhänge in Konsolidierungsnetzwerken des Schienengüterverkehrs (z. B. durch die Identifikation von maßgeblichen Kostentreibern) und wirkt einem grundsätzlichen Problem aus dem Bereich des maschinellen Lernens, der mangelnden Interpretierbarkeit der Modelle, entgegen. TRENO wird anhand eines praxisnahen Anwendungsfalls validiert, der Planung einer Migration einer DAK in einem exemplarischen europäischen Einzelwagenverkehrsnetz. Hierbei wird mit TRENO untersucht, welchen Einfluss verschiedene Betriebsstrategien während einer Migration einer DAK auf die Kosten und Strukturen im Netzwerk haben. Das Anwendungsbeispiel zeigt auf, dass sich mit TRENO verschiedene komplexe Betriebsstrategien mathematisch modellieren lassen. Durch die Anwendung der Methode werden die konkreten Effekte der Betriebsstrategien auf die definierten Kennzahlen des Netzwerks transparent gemacht. Dies ermöglicht neue Schlussfolgerungen aus eisenbahnbetriebswissenschaftlicher Sicht hinsichtlich der Wahl von Betriebsstrategien während einer Migration. Ferner zeigen die Ergebnisse die hohe Qualität der Prognosen durch die Klassifizierungs- und Regressionsmodelle auf. Beim Test von vier Klassifizierungs- und fünf Regressionsmodellen erzielen Modelle auf Basis des Gradient Boosting Verfahrens die besten Ergebnisse. Für die Klassifizierung erzielt das Modell in 94% der Fälle richtige Vorhersagen. Das Regressionsmodell erzielt im Durchschnitt über alle Kennzahlen ein Bestimmtheitsmaß von 93% und kann damit einen Großteil der Varianz in den Datensätzen erklären. TRENO stellt somit einen anwendbaren Beitrag dar, um den manuellen Prozess zur Planung von Konsolidierungsnetzwerken im Schienengüterverkehr insbesondere für den Fall der Einführung von Innovationen maßgeblich zu beschleunigen und zu automatisieren. Der modellbasierte Ansatz objektiviert die Entscheidungsunterstützung gegenüber dem Status Quo und ermöglicht zudem eine weitreichende Exploration des Einflusses von Innovationen auf die Strukturen des Netzwerks über zahlreiche Szenarien. Hierdurch erweitert die Dissertation das Methodenspektrum der Eisenbahnbetriebswissenschaften durch die Verzahnung mit Verfahren aus dem Operations Research sowie des maschinellen Lernens. / The trend towards small-scale and more capital-intensive transport goods means that the importance of rail freight consolidation networks is increasing. Production forms such as single wagonload transport and intermodal transport are therefore critical for the future potential of rail freight. The competitiveness of rail freight networks can be strengthened through the introduction of innovations such as a Digital Automatic Coupling (DAC) and sensors on freight wagons and locomotives. These innovations are often accompanied by high investment costs and uncertainties regarding their specific operational impact in the networks. For strategic decisions regarding the introduction of such innovations, the economic and operational effects must be identified and quantified, e.g., for benefit-cost considerations. In this context, the changes in the so-called Service Network Design (SND) are of particular importance. The SND determines train service structures and the freight distribution in networks at the tactical planning level. The number and schedule of operated train services in the network significantly determines the costs and quality of consolidation networks in rail freight. It provides the framework for specific railcar routings at the operational level and defines the number of trains to be handled in the bundling nodes of the networks. Despite this outstanding importance of the SND, the tactical planning of consolidation networks is still a manual process in practice lacking computer-based decision support. This is particularly true for statements on network effects of innovations. Due to the high complexity of consolidation networks in rail freight transport and the lack of computer-based decision support, analyses regarding the effects of innovations in service networks are mainly based on expert interviews in the status quo. Especially for innovations whose migration is associated with extensive process transformations and new operating strategies in the network, there is a need for objective model-based methods to support decision-making. Thereby, the operational effects of innovations on service network structures and costs could be determined and made transparent to decision-makers. This dissertation contributes to close this gap and to enable an efficient planning of consolidation networks. For this purpose, the dissertation develops a new method as a contribution to decision support for the introduction and migration of innovations in consolidation networks of rail freight transport: TRENO (TRansparent Evaluation of InNOvation Effects in Rail Freight Service Networks). The method combines rail transport planning with approaches from operations research and machine learning. Process changes due to innovations are analyzed and depicted in a novel mathematical optimization model for the SND. The model enables the definition of different operating strategies in the network and incorporates dynamic infrastructure usages of trains in the nodes of the network. Since the introduction of innovations is associated with a high degree of uncertainty regarding the underlying assumptions and input parameters, numerous scenarios have to be defined and evaluated for a sound decision support. Due to the high complexity of SND models, mathematical optimization is computationally expensive and time-consuming. Therefore, TRENO applies classification and regression models from the field of machine learning complementing mathematical optimization. Based on a set of scenarios for which optimal network structures have been computed using mathematical optimization, the classification and regression models learn the relationship between input data and the resulting key figures of the network. After training, the models can be used to predict the key figures of networks for various new scenarios within seconds (in particular cost structures, the number of operated train services and utilization of trains and yards). This represents a significant acceleration compared to mathematical optimization. The classification models are used to predict the feasibility of a scenario, which can, for example, result from insufficient capacities in the nodes of the network. The regression models predict specific metrics of the network such as costs, train service structures and capacity utilization. In addition to this core functionality of TRENO, the integration of the SHAP method (shapley additive explanations) allows an analysis of the influence of input parameters on the key figures of a consolidation network. This contributes to the understanding of the interdependencies in consolidation networks of rail freight transport (e.g., by identifying major cost drivers) and counteracts a fundamental problem from the field of machine learning, the lack of interpretability of the models. TRENO is validated on the basis of a relevant use case, the planning of a migration of a DAC in an exemplary European single wagonload network. Here, TRENO is used to investigate the influence of different operating strategies during a migration of a DAC on the costs and service structures in the network. The example shows that different complex operating strategies can be modelled with TRENO. By applying the method, the specific effects of the operating strategies on the defined key figures of the network are made transparent. This enables to draw new conclusions from a rail transport planning perspective regarding the choice of operating strategies during a migration. Furthermore, the results show the high quality of the predictions by the classification and regression models. When testing four classification and five regression algorithms, models based on gradient boosting achieve the best results. For classification, the model yields correct predictions in 94% of the cases. The regression model achieves an average coefficient of determination of 93% across all key figures and can thereby explain a large part of the variance in the data. TRENO thus represents an applicable contribution to significantly automate and accelerate the manual process for planning consolidation networks in rail freight transport, especially for the case of the introduction of innovations. The model-based approach provides a more objective decision support compared to the status quo and enables to study the influence of innovations on the structures of service networks over numerous scenarios. Hereby, the dissertation expands the methodological spectrum of rail transport planning by linking it with methods from operations research and machine learning.
|
199 |
Advancing Plasmon Resonance Engineering via Combinatorics and Artificial IntelligenceSchletz, Daniel 22 April 2024 (has links)
Während die Menschheit bereits seit Jahrtausenden von der Brillanz von Gold und Silber im ausgedehnten Zustand fasziniert ist, bestechen ihre nanoskaligen Gegenstücke mit ihren wundervollen Farben und ihrer breiten Farbpalette. Motiviert durch diese Farben versuchten Wissenschaftler das zugrundeliegende Phänomen dieser Farben, die lokalisierte Oberflächenplasmonenresonanz, zu verstehen, was den Grundstein der Forschung im Bereich Plasmonik legte. Für die Anwendung muss diese lokalisierte Oberflächenplasmonenresonanz umfassend durch Änderung von Material, Größe, Form, Anordnung und Umgebung der Nanopartikel angepasst werden. Es scheint unausweichlich, dass dieser komplexe Parameterraum nur durch die Anwendung von künstlicher Intelligenz verstanden werden kann und die Eigenschaften von solchen komplexen Strukturen — in isolierten oder gekoppelten Strukturen — angepasst werden können.
Diese Dissertation untersucht die Anpassung der Plasmonenresonanz in isolierten und gekoppelten Nanostrukturen durch Kombination von Kolloidsynthese, Anordnung und künstlicher Intelligenz. Der erste Teil behandelt die Synthese von Goldnanopartikeln mit Unterstützung des maschinellen Lernens. Durch die Nutzung von baumbasierten Lernalgorithmen wird die Wichtigkeit von bestimmten Syntheseparametern und dessen Auswirkungen auf die finalen Eigenschaften der synthetisierten Nanopartikel beleuchtet. Dabei wird gezeigt, dass der Algorithmus die zugrundeliegenden Chemiekonzepte der Synthese lernen kann, ohne sie explizit zu lehren, sondern ausschließlich durch das Lernen der Synthese- und Charakterisierungsdaten. Der zweite Teil fokussiert sich auf die Anordnung und die optische Charakterisierung von heterogenen Ketten aus Gold- und Silbernanopartikeln. Dabei wird gezeigt, dass nahezu jede Konfiguration bis zu einer Länge von 17 auf einem Quadratzentimeter durch Beschränkungsanordnung angeordnet werden können. Dies löst die synthetische Herausforderung des exponentiell wachsenden Parameterraums, der durch die Einführung eines zweiten Bausteins in der Kette eröffnet wurde. Allerdings ist die Charakterisierung zeitaufwändig und daher für die enorme Menge an Konfigurationen nicht realisierbar. Infolgedessen können elektrodynamische Simulationen hier helfen und diese Lücke schließen. Leider sind diese Simulationen durch ihre Berechnungskomplexität beschränkt, was jedoch durch den Einsatz von rekurrenten neuronalen Netzen im letzten Teil der Dissertation abgemildert wird. Letztlich zeigt diese Dissertation wie innovative Zugänge zu diesen Herausforderungen die Synthese, Charakterisierung und Verständnis von plasmonischen Nanostrukturen ermöglichen und wie die Plasmonenresonanz in Bezug zu ihren Anwendungen angepasst werden kann. / While the brilliance of gold and silver has fascinated humankind for millennia in their bulk state, their nanoscale counterparts captivate with their beautiful colors and broad color range. Motivated by these colors, researchers pursued to understand the underlying phenomenon of these colors, the localized surface plasmon resonance, which sparked the research in the field of plasmonics. In order to be useful, this localized surface plasmon resonance needs to be extensively engineered by variation of material, size, shape, arrangement, and surrounding of the nanoparticles. To explore this complex parameter space, the use of the emerging technology of artificial intelligence seems inevitable to understand and engineer the properties of such complex structures — either in isolated or coupled structures.
This thesis investigates the plasmon resonance engineering in isolated and coupled nanostructures by combining colloidal synthesis, assembly, and artificial intelligence. The first part covers the machine learning assisted synthesis of gold nanoparticles, which aims to use tree-based learning algorithms to elucidate the importance of certain synthesis parameters and how they affect the final characteristics of the synthesized nanoparticles. It is shown that the algorithm can learn the underlying concepts of the chemistry of the synthesis without explicitly teaching the algorithm, but purely learning from data that was gathered during synthesis and characterization. The second part focuses on the assembly and optical characterization of heterogeneous chains composed of gold and silver nanospheres. Applying confinement assembly, virtually any configuration up to a length of 17 can be assembled on a square centimeter, which solves the synthetic challenge that is imposed by the exponentially growing configuration space due to the introduction of a second building block in the chain. However, characterization is time-consuming and therefore not feasible for vast amounts of configurations, thus only a tiny subsample is selected for electromagnetic characterization. Consequently, electrodynamicsimulations aid this task and try to fill the gap. Unfortunately, these simulations are limited by computational complexity; however, the use of recurrent neural networks enables to mitigate this problem, as shown in the final part of this thesis. In the end, this thesis showcases how innovative approaches to these challenges can enable the synthesis, characterization, and understanding of plasmonic nanostructures and how they can be used to engineer the plasmonic resonance in accordance with their desired applications.
|
200 |
Machine learning assisted real‑time deformability cytometry of CD34+ cells allows to identify patients with myelodysplastic syndromesHerbig, Maik, Jacobi, Angela, Wobus, Manja, Weidner, Heike, Mies, Anna, Kräter, Martin, Otto, Oliver, Thiede, Christian, Weickert, Marie‑Theresa, Götze, Katharina S., Rauner, Martina, Hofbauer, Lorenz C., Bornhäuser, Martin, Guck, Jochen, Ader, Marius, Platzbecker, Uwe, Balaian, Ekaterina 16 May 2024 (has links)
Diagnosis of myelodysplastic syndrome (MDS) mainly relies on a manual assessment of the peripheral blood and bone marrow cell morphology. The WHO guidelines suggest a visual screening of 200 to 500 cells which inevitably turns the assessor blind to rare cell populations and leads to low reproducibility. Moreover, the human eye is not suited to detect shifts of cellular properties of entire populations. Hence, quantitative image analysis could improve the accuracy and reproducibility of MDS diagnosis. We used real-time deformability cytometry (RT-DC) to measure bone marrow biopsy samples of MDS patients and age-matched healthy individuals. RT-DC is a high-throughput (1000 cells/s) imaging flow cytometer capable of recording morphological and mechanical properties of single cells. Properties of single cells were quantified using automated image analysis, and machine learning was employed to discover morpho-mechanical patterns in thousands of individual cells that allow to distinguish healthy vs. MDS samples. We found that distribution properties of cell sizes differ between healthy and MDS, with MDS showing a narrower distribution of cell sizes. Furthermore, we found a strong correlation between the mechanical properties of cells and the number of disease-determining mutations, inaccessible with current diagnostic approaches. Hence, machine-learning assisted RT-DC could be a promising tool to automate sample analysis to assist experts during diagnosis or provide a scalable solution for MDS diagnosis to regions lacking sufficient medical experts.
|
Page generated in 0.0616 seconds