• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

On the Efficient Utilization of Dense Nonlocal Adjacency Information In Graph Neural Networks

Bünger, Dominik 14 December 2021 (has links)
In den letzten Jahren hat das Teilgebiet des Maschinellen Lernens, das sich mit Graphdaten beschäftigt, durch die Entwicklung von spezialisierten Graph-Neuronalen Netzen (GNNs) mit mathematischer Begründung in der spektralen Graphtheorie große Sprünge nach vorn gemacht. Zusätzlich zu natürlichen Graphdaten können diese Methoden auch auf Datensätze ohne Graphen angewendet werden, indem man einen Graphen künstlich mithilfe eines definierten Adjazenzbegriffs zwischen den Samplen konstruiert. Nach dem neueste Stand der Technik wird jedes Sample mit einer geringen Anzahl an Nachbarn verknüpft, um gleichzeitig das dünnbesetzte Verhalten natürlicher Graphen nachzuahmen, die Stärken bestehender GNN-Methoden auszunutzen und quadratische Abhängigkeit von der Knotenanzahl zu verhinden, welche diesen Ansatz für große Datensätze unbrauchbar machen würde. Die vorliegende Arbeit beleuchtet die alternative Konstruktion von vollbesetzten Graphen basierend auf Kernel-Funktionen. Dabei quantifizieren die Verknüpfungen eines jeden Samples explizit die Ähnlichkeit zu allen anderen Samplen. Deshalb enthält der Graph eine quadratische Anzahl an Kanten, die die lokalen und nicht-lokalen Nachbarschaftsinformationen beschreiben. Obwohl dieser Ansatz in anderen Kontexten wie der Lösung partieller Differentialgleichungen ausgiebig untersucht wurde, wird er im Maschinellen Lernen heutzutage meist wegen der dichtbesetzten Adjazenzmatrizen als unbrauchbar empfunden. Aus diesem Grund behandelt ein großer Teil dieser Arbeit numerische Techniken für schnelle Auswertungen, insbesondere Eigenwertberechnungen, in wichtigen Spezialfällen, bei denen die Samples durch niedrigdimensionale Vektoren (wie z.B. in dreidimensionalen Punktwolken) oder durch kategoriale Attribute beschrieben werden. Weiterhin wird untersucht, wie diese dichtbesetzten Adjazenzinformationen in Lernsituationen auf Graphen benutzt werden können. Es wird eine eigene transduktive Lernmethode vorgeschlagen und präsentiert, eine Version eines Graph Convolutional Networks (GCN), das auf die spektralen und räumlichen Eigenschaften von dichtbesetzten Graphen abgestimmt ist. Schließlich wird die Anwendung von Kernel-basierten Adjazenzmatrizen in der Beschleunigung der erfolgreichen Architektur “PointNet++” umrissen. Im Verlauf der Arbeit werden die Methoden in ausführlichen numerischen Experimenten evaluiert. Zusätzlich zu der empirischen Genauigkeit der Neuronalen Netze liegt der Fokus auf wettbewerbsfähigen Laufzeiten, um die Berechnungs- und Energiekosten der Methoden zu reduzieren. / Over the past few years, graph learning - the subdomain of machine learning on graph data - has taken big leaps forward through the development of specialized Graph Neural Networks (GNNs) that have mathematical foundations in spectral graph theory. In addition to natural graph data, these methods can be applied to non-graph data sets by constructing a graph artificially using a predefined notion of adjacency between samples. The state of the art is to only connect each sample to a low number of neighbors in order to simultaneously mimic the sparse behavior of natural graphs, play into the strengths of existing GNN methods, and avoid quadratic scaling in the number of nodes that would make the approach infeasible for large problem sizes. In this thesis, we shine light on the alternative construction of kernel-based fully-connected graphs. Here the connections of each sample explicitly quantify the similarities to all other samples. Hence the graph contains a quadratic number of edges which encode local and non-local neighborhood information. Though this approach is well studied in other settings including the solution of partial differential equations, it is typically dismissed in machine learning nowadays because of its dense adjacency matrices. We thus dedicate a large portion of this work to showcasing numerical techniques for fast evaluations, especially eigenvalue computations, in important special cases where samples are described by low-dimensional feature vectors (e.g., three-dimensional point clouds) or by a small set of categorial attributes. We then continue to investigate how this dense adjacency information can be utilized in graph learning settings. In particular, we present our own proposed transductive learning method, a version of a Graph Convolutional Network (GCN) designed towards the spectral and spatial properties of dense graphs. We furthermore outline the application of kernel-based adjacency matrices in the speedup of the successful PointNet++ architecture. Throughout this work, we evaluate our methods in extensive numerical experiments. In addition to the empirical accuracy of our neural network tasks, we focus on competitive runtimes in order to decrease the computational and energy cost of our methods.
2

Algorithmic classification in tumour spheroid control experiments using time series analysis

Schmied, Jannik 05 June 2024 (has links)
At the forefront of cancer treatment development and evaluation, three-dimensional Tumour Spheroid Control Experiments play a pivotal role in the battle against cancer. Conducting and evaluating in vitro experiments are time-consuming processes. This thesis details the development, implementation, and validation of an algorithmic model that classifies spheroids as either controlled or relapsed by assessing the success of their treatments based on criteria rooted in biological insights. The introduction of this model is crucial for biologists to accurately and efficiently predict treatment efficacy in 3D in vitro experiments. The motivation for this research is driven by the need to improve the objectivity and efficiency of treatment outcome evaluations, which have traditionally depended on manual and subjective assessments by biologists. The research involved creating a comprehensive dataset from multiple 60-day in vitro experiments by combining data from various sources, focusing on the growth dynamics of tumour spheroids subjected to different treatment regimens. Through preprocessing and analysis, growth characteristics were extracted and utilized as input features for the model. A feature selection and optimization technique was applied to refine the software model and improve its predictive accuracy. The model is based on a handful of comprehensive criteria, calibrated by employing a grid search mechanism for hyperparameter tuning to optimize accuracy. The validation process, conducted via independent test sets, confirmed the model’s capability to predict treatment outcomes with a high degree of reliability and an accuracy of about 99%. The findings reveal that algorithmic classification models can make a significant contribution to the standardization and automation of treatment efficacy assessment in tumour spheroid experiments. Not only does this approach reduce the potential for human error and variability, but it also provides a scalable and objective means of evaluating treatment outcomes.:1 Introduction 1.1 Background and Motivation 1.2 Biological Background 1.3 Iteration Methodology 1.4 Objective of the Thesis 2 Definition of basic Notation and Concepts 2.1 Time Series Analysis 2.2 Linear Interpolation 2.3 Simple Exponential Smoothing 2.4 Volume of a Spheroid 2.5 Heavyside Function 2.6 Least Squares Method 2.7 Linear Regression 2.8 Exponential Approximation 2.9 Grid Search 2.10 Binary Regression 2.11 Pearson Correlation Coefficient 3 Observation Data 3.1 General Overview 3.1.1 Structure of the Data 3.1.2 Procedure of Data Processing using 3D-Analysis 3.2 Data Engineering 3.2.1 Data Consolidation and Sanitization 3.2.2 Extension and Interpolation 3.2.3 Variance Reduction 4 Model Development 4.1 Modeling of Various Classification-Relevant Aspects 4.1.1 Primary Criteria 4.1.2 Secondary Criteria 4.1.3 Statistical Learning Approaches 4.2 Day of Relapse Estimation 4.3 Model Implementation 4.3.1 Combination of Approaches 4.3.2 Implementation in Python 4.4 Model Calibration 4.4.1 Consecutive Growth 4.4.2 Quintupling 4.4.3 Secondary Criteria 4.4.4 Combined Approach 5 Model Testing 5.1 Evaluation Methods 5.1.1 Applying the Model to New Data 5.1.2 Spheroid Control Probability 5.1.3 Kaplan-Meier Survival Analysis 5.1.4 Analysis of Classification Mismatches 5.2 Model Benchmark 5.2.1 Comparison to Human Raters 5.2.2 Comparison to Binary Regression Model 5.3 Robustness 5.3.1 Test using different Segmentation 5.3.2 Feature Reduction 5.3.3 Sensitivity 5.3.4 Calibration Templates 6 Discussion 6.1 Practical Application Opportunities 6.2 Evaluation of the Algorithmic Model 6.3 Limitations 7 Conclusion 7.1 Summary 7.2 Future Research Directions / Dreidimensionale Experimente zur Kontrolle von Tumorsphäroiden sind zentral für die Entwicklung und Evaluierung von Krebstherapien. Die Durchführung und Auswertung von In-vitro-Experimenten ist jedoch zeitaufwendig. Diese Arbeit beschreibt die Entwicklung, Implementierung und Validierung eines algorithmischen Modells zur Einstufung von Sphäroiden als kontrolliert oder rezidivierend. Das Modell bewertet den Behandlungserfolg anhand biologisch fundierter Kriterien. Diese Innovation ist entscheidend für die präzise und effiziente Vorhersage der Wirksamkeit von Behandlungen in 3D-In-vitro-Experimenten und zielt darauf ab, die Objektivität und Effizienz der Beurteilung von Behandlungsergebnissen zu verbessern, die traditionell von manuellen, subjektiven Einschätzungen der Biologen abhängen. Die Forschung umfasste die Erstellung eines umfassenden Datensatzes aus mehreren 60-tägigen In-vitro-Experimenten, bei denen die Wachstumsdynamik von Tumorsphäroiden unter verschiedenen Behandlungsschemata untersucht wurde. Durch Vorverarbeitung und Analyse wurden Wachstumscharakteristika extrahiert und als Eingangsmerkmale für das Modell verwendet. Das Modell basiert auf wenigen umfassenden Kriterien, die mithilfe eines Gittersuchmechanismus zur Abstimmung der Hyperparameter kalibriert wurden, um die Genauigkeit zu optimieren. Der Validierungsprozess bestätigte die Fähigkeit des Modells, Behandlungsergebnisse mit hoher Zuverlässigkeit und einer Genauigkeit von etwa 99 % vorherzusagen. Die Ergebnisse zeigen, dass algorithmische Klassifizierungsmodelle einen wesentlichen Beitrag zur Standardisierung und Automatisierung der Bewertung der Behandlungseffektivität in Tumorsphäroid-Experimenten leisten können. Dieser Ansatz verringert nicht nur das Potenzial für menschliche Fehler und Schwankungen, sondern bietet auch ein skalierbares und objektives Mittel zur Bewertung von Behandlungsergebnissen.:1 Introduction 1.1 Background and Motivation 1.2 Biological Background 1.3 Iteration Methodology 1.4 Objective of the Thesis 2 Definition of basic Notation and Concepts 2.1 Time Series Analysis 2.2 Linear Interpolation 2.3 Simple Exponential Smoothing 2.4 Volume of a Spheroid 2.5 Heavyside Function 2.6 Least Squares Method 2.7 Linear Regression 2.8 Exponential Approximation 2.9 Grid Search 2.10 Binary Regression 2.11 Pearson Correlation Coefficient 3 Observation Data 3.1 General Overview 3.1.1 Structure of the Data 3.1.2 Procedure of Data Processing using 3D-Analysis 3.2 Data Engineering 3.2.1 Data Consolidation and Sanitization 3.2.2 Extension and Interpolation 3.2.3 Variance Reduction 4 Model Development 4.1 Modeling of Various Classification-Relevant Aspects 4.1.1 Primary Criteria 4.1.2 Secondary Criteria 4.1.3 Statistical Learning Approaches 4.2 Day of Relapse Estimation 4.3 Model Implementation 4.3.1 Combination of Approaches 4.3.2 Implementation in Python 4.4 Model Calibration 4.4.1 Consecutive Growth 4.4.2 Quintupling 4.4.3 Secondary Criteria 4.4.4 Combined Approach 5 Model Testing 5.1 Evaluation Methods 5.1.1 Applying the Model to New Data 5.1.2 Spheroid Control Probability 5.1.3 Kaplan-Meier Survival Analysis 5.1.4 Analysis of Classification Mismatches 5.2 Model Benchmark 5.2.1 Comparison to Human Raters 5.2.2 Comparison to Binary Regression Model 5.3 Robustness 5.3.1 Test using different Segmentation 5.3.2 Feature Reduction 5.3.3 Sensitivity 5.3.4 Calibration Templates 6 Discussion 6.1 Practical Application Opportunities 6.2 Evaluation of the Algorithmic Model 6.3 Limitations 7 Conclusion 7.1 Summary 7.2 Future Research Directions

Page generated in 0.141 seconds