• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 25
  • 14
  • 1
  • Tagged with
  • 65
  • 57
  • 56
  • 33
  • 33
  • 10
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Automatic classification of treatment-deviation sources in proton therapy using prompt-gamma-imaging information

Khamfongkhruea, Chirasak 24 September 2021 (has links)
Prompt-gamma imaging (PGI) was proposed in the 2000s as a promising in vivo range-verification method to maintain the physical advantage of proton beams by reducing unwanted range-uncertainties. Recently, PGI with a slit camera has been successfully implemented in clinical application. Despite its high accuracy and sensitivity to range deviation being shown in several studies, the clinical benefits of PGI have not yet been investigated. Hence, to fully exploit the advantages of PGI, this thesis aims to investigate the feasibility of PGI-based range verification for the automatic classification of treatment deviations and differentiation of relevant from non-relevant changes in the treatment of head-and-neck (H&N) tumors. In the first part of this thesis, the four most common types of treatment deviations in proton therapy (PT) were investigated regarding their PGI signature and by considering clinically relevant and non-relevant scenarios. A heuristic decision tree (DT) model was iteratively developed. To gain understanding of the specific signature of the error sources, different levels of geometrical complexities were explored, from simple to complex. At the simplest level, a phantom with homogeneous density was used to distinguish range-prediction and setup errors. Next, in the intermediate complexity level, a phantom with heterogeneous density was used to inspect the additional error scenarios of anatomical changes. Finally, real patient CT scans were used to investigate the relevance of changes based on clinical constraints. In the final model, a five-step filtering approach was used during pre-processing to select reliable pencil-beam-scanning spots for range verification. In this study, five features extracted from the filtered PGI data were used to classify the treatment deviation. The model is able distinguish four introduced scenarios into six classes as follows: (1) overestimation of range prediction, (2) underestimation of range prediction, (3) setup error with larger air gap, (4) setup error with smaller air gap, (5) anatomical change, and (6) non-relevant change. To ensure the application was effective, independent patient CT datasets were used to test the model. The results yielded an excellent performance of the DT classifier, with high accuracy, sensitivity, and specificity of 96%, 100%, and 85.7%, respectively. According to these findings, this model can sensitively detect treatment deviations in PT based on simulated PGI data. In the second part of this work, an alternative approach based on machine learning (ML) was taken to automatically classify the error sources. In the first stage, the two approaches were compared, using the same features as well as the same training and test datasets. The results show that the ML approach was slightly better than the heuristic DT approach in terms of accuracy. However, the performance of both approaches was excellent for the individual scenarios. Thus, these results confirm that the PGI-based data classification with five features can be applied to detect individual sources of treatment deviation in PT. In the second stage, there was an investigation of more complex and more realistic combinations of error scenarios, which was out of the scope of the DT approach. The results demonstrated that the performance of the ML-based classifiers declined in general. Furthermore, the additional features of the PG shift did not substantially improve the performance of the classifiers. As a consequence, these findings mark important issues for future research. Potentially, usage of the spatial information from the spot-based PGI data and more complex techniques such as deep learning may improve the performance of classifiers with respect to scenarios with multiple error sources. However, regardless of this, it is recommended that these findings be confirmed and validated in simulations under measurement-like conditions or with real PG measurements of H&N patients themselves. Moreover, this classification model could eventually be tested with other body sites and entities in order to assess its compatibility and adaptation requirements. In summary, this study yielded promising results regarding the automatic classification of treatment-deviation sources and the differentiation of relevant and non-relevant changes in H&N-tumor treatment in PT with PGI data. This simulation study marks an important step towards fully automated PGI-based proton-range verification, which could contribute to closing the treatment-workflow loop of adaptive therapy by supporting clinical decision-making and, ultimately, improving clinical PT.:1 Introduction 2 Background 2.1 Proton therapy 2.1.1 Rationale for proton therapy 2.1.2 Uncertainties and their mitigation 2.2 In vivo range-verification techniques 2.2.1 Range probing 2.2.2 Proton tomography 2.2.3 Magnetic resonance imaging 2.2.4 Ionoacoustic detection 2.2.5 Treatment-activated positron-emission tomography imaging 2.2.6 Prompt-gamma based detection 3 Prompt-gamma imaging with a knife-edged slit camera 3.1 Current state-of-the-art 3.2 Prompt-gamma camera system 3.3 Data acquisition and analysis 4 Error-source classification using heuristic decision tree approach 4.1 Study design 4.1.1 Case selection 4.1.2 Investigated scenarios 4.1.3 Prompt-gamma simulation and range shift determination 4.2 Development of the model 4.2.1 First-generation model 4.2.2 Second-generation model 4.2.3 Third-generation model 4.3 Model testing 4.4 Discussion: decision-tree model 5 Error-source classification using a machine-learning approach 5.1 Machine learning for classification 5.1.1 Support-vector-machine algorithm 5.1.2 Ensemble algorithm – random forest 5.1.3 Logistic-regression algorithm 5.2 Study design 5.2.1 Case selection 5.2.2 Feature selection 5.3 Model generation 5.4 Model testing 5.5 Discussion 6 Summary/ Zusammenfassung Bibliography Appendix List of Figures List of Tables List of Abbreviations
42

Differenzierung von humanen Plattenepithelkarzinomen mittels IR-mikrospektroskopischem Imaging

Steller, Wolfram 06 August 2007 (has links)
Die Dissertation befasste sich mit der Entwicklung einer neuen diagnostischen Methode für in-situ-Gewebeuntersuchungen. Der Ansatzpunkt war die Untersuchung von pathologischen Veränderungen im Gewebe, die sich biochemisch in den Zellen widerspiegeln und deshalb mit schwingungsspektroskopischen Methoden, wie der IR-Spektroskopie, erfassbar sind. Das Ziel der Arbeit war die IR-spektroskopische Charakterisierung und Klassifizierung von benignen, präkanzerösen und malignen Geweben mittels chemometrischer Algorithmen auf der Basis multivariater Informationen der IR-Spektren. Um komplexe spektrale Veränderungen zu charakterisieren und die Ergebnisse statistisch abzusichern, ist für jeden Gewebetyp eine Vielzahl an Spektren erforderlich. Daher wurde zur Spektrenakkumulation das IR-mikrospektroskopische Imaging mittels Focal Plane Array Detektor (FPA) genutzt. Die Herausforderung liegt in der Datenanalyse. Der große Datenumfang macht die Anwendung multivariater Algorithmen notwendig. Angewendet wurden Clusteralgorithmen zur Spektrendifferenzierung und die SIMCA (Soft Independent Modelling of Class Analogies) zur Spektrenklassifizierung. Die Validierung der Ergebnisse erfolgt über die histologische Untersuchung der nach der spektroskopischen Messung gefärbten Gewebedünnschnitte. Die genaue Vorgehensweise bei der Auswertung wird in dieser Arbeit anhand humaner Gewebeproben dargestellt. Die untersuchten Plattenepithelkarzinome und Adenokarzinome gehören zu den epithelialen Tumoren, die oralen bzw. zervikalen Ursprungs sind. Die Übertragbarkeit der spektralen Modelle wurde mit Gewebeproben mehrerer Patienten innerhalb einer und zwischen verschiedenen Tumorarten untersucht. Das ist ein erster Schritt zum Einsatz spektroskopischer Methoden in der medizinischen Forschung und Diagnostik.
43

Determination of water body structures for small rivers using remote sensing data

Karrasch, Pierre, Henzen, Daniel, Hunger, Sebastian, Hörold, Max 29 August 2019 (has links)
The diversity of habitats in water bodies like rivers is characterised by the status of morphological and hydrological conditions. The good ecological status of water bodies is claimed in the EuropeanWater Framework Directive. For the assessment of this status the hydro-morphology is one of the most important supporting components for the classification of the ecological status of water bodies. Therefore the periodical monitoring is a mandatory measure in the scope of the European Water Framework Directive. Regarding the so called overview-method of the LAWA (German Working Group on water issues of the Federal States and the Federal Government represented by the Federal Environment Ministry) the use of remote sensing data and remote sensing methodologies becomes more important. Therefore remote sensing data on different scales (satellite, aerial photographs) as well as other topographic information (ATKIS) and a high resolution DTM are merged into an integrative process of analysis using remote sensing and GIS methodology. The analyses ared focused on two parameters. First, a detailed landuse classification based on LANDSAT satellite data is performed for whole catchment of a small river. The results show significant increase of urban areas close to the river. The second analyses deals with the determination of river curvature and introduces the use of a quasi-continously representation of the river. An additional challenge is the chosen study area of a low mountain range river. While large rivers are clear visible in remote sensing data, the usability and transformation of the well-established algorithms and work ows to small rivers need a further substantial research.
44

Objektivierung der Reinigungswirkung beruflicher Hautreinigungsmittel. Modellentwicklung auf Grundlage einer berufsgruppenspezifischen Expositionsanalyse / Objectification of the cleansing effect of occupational skin cleanser. Model-development based on a profession-specific exposure analysis

Sonsmann, Flora Karla 28 August 2013 (has links)
Es gibt berufliche Hautreinigungsmittel für verschiedene Arten und Grade von Verschmutzungen, allerdings ohne rechtlich bindende Vorgaben für die Hersteller bei der Produktauslobung. Das führt zur Anwendung diverser, herstellerabhängiger Prüfverfahren, die zu nicht vergleichbaren Angaben bei Hautreinigungsprodukten führen. Folglich ist eine begründete Produktauswahl aktuell für den Anwender nur begrenzt möglich. Ziel dieser Arbeit ist es, ein standardisiertes In-vivo-Reinigungsmodell zu entwickeln. Zentral in diesem Kontext sind die wissenschaftliche Begründung und Validierung von Modellschmutzen und die Standardisierung der Reinigungsprozedur. Um eine nachhaltige Umsetzung des In-vivo-Modells zu unterstützen, erfolgen einleitend eine einschlägige Literaturrecherche sowie eine Herstellerbefragung zu aktuell eingesetzten Produktprüfverfahren und zur Identifizierung von Anforderungen an das In-vivo-Modell. Ergebnisse dienen der Konzeption eines Kriterienkatalogs für das zu entwickelnde Modell. Für die Modellschmutzbegründung werden eine fragebogenbasierte Datenerhebung bei Beschäftigten und Arbeitssicherheitsbeauftragten und orientierende Betriebsbesichtigungen in unterschiedlichen Berufsgruppen zu Schmutzexpositionen am Arbeitsplatz vorgenommen. Diese so identifizierten Verschmutzungen werden im Anschluss nach physikochemischen Eigenschaften klassifiziert und begründen die mittels Modellschmutzen abzubildenden Schmutzeigenschaften für die Produktauslobung. Insgesamt werden sechs Modellschmutze theoretisch begründet, galenisch formuliert (Kutz 2009), anwendungsorientiert validiert (Elsner et al. 2011, Elsner et al. 2013a) und stehen nun für In-vivo-Reinigungsversuche zur Verfügung. Dabei handelt es sich um einen hydrophilen Modellschmutz (Typ „Mascara“), einen lipophilen Modellschmutz (Typ „W/O-Creme“), zwei filmbildende Modellschmutze (Typ „Dispersionslack“ und Typ „Acryllack“) und zwei Staub-Öl-Mischverschmutzungen unterschiedlicher Haftung (Typ „Altöl“ und Typ „Salbe“). Der Nachweis der Reinigungswirkung erfolgt chromametrisch anhand des L*-Wertes. Zu diesem Zweck sind die Modellschmutze schwarz gefärbt. Für die Standardisierung der Reinigungsprozedur wird der DGUV-Hautwaschapparat aus Osnabrück (OHWA) in Anlehnung an bzw. als Weiterentwicklung von vergleichbaren Geräten wie der Hautwaschmaschine von Schrader (1996) und dem „rotierenden Quirl“ von Tronnier (1965) konstruiert. Er ermöglicht eine standardisierte mechanische Einwirkung auf drei definierte Hautareale am volaren Unterarm und entspricht der Qualitätsnorm DIN EN ISO 13485 für Medizinprodukte. Anpressdruck, Rotation und Dauer der Einwirkung sind einstellbar. Auch geräteübergreifend führt der OHWA zu reproduzierbaren Reinigungseffekten. Durch die herstellerübergreifende Umsetzung der Methode können zukünftig Hautreinigungsmittel entsprechend ihrer Eigenschaften klassifiziert und dadurch die Möglichkeit einer gezielten Produktauswahl geschaffen werden. Ferner kann das Modell von Herstellern für die Produkt(weiter)entwicklung angewendet werden.
45

Konzeptuelle Modellierung für modellgetriebene Decision Support Systeme

Schultewolter, Christian 28 August 2013 (has links)
Die Arbeit adressiert die empirisch beobachtete Fehleranfälligkeit einer populären Teilmenge modellgetriebener Decision Support Systeme (MDSS), die mit Spreadsheet-Werkzeugen erstellt werden. Der Fokus liegt bei diesen DSS auf der logischen Formulierung realer Zusammenhänge im multidimensionalen Kontext. Analysen einer empirisch belegten Fehlerrate weisen auf proprietäre, oft wenig intuitive Modellierungssprachen der am Markt befindlichen Produkte hin, die eine unnatürliche, fehleranfällige Modellierung provozieren. In Analogie zu den positiven Erfahrungen einer konzeptuellen Datenmodellierung schlägt die vorliegende Arbeit eine konzeptuelle Modellierungsebene vor, um diesem Problem zu begegnen. Eine Untersuchung vorhandener konzeptueller Modellierungsansätze kommt zu dem Ergebnis, dass bei der Konstruktion der konzeptuellen Modellierungsebene für MDSS eine Erweiterung oder Änderung eines bestehenden konzeptuellen Modellierungsansatzes nicht in Betracht gezogen werden kann. Basierend auf diesen Erkenntnissen wird eine konzeptuelle Modellierungsebene entwickelt, welche aus den drei Phasen Modellkonfiguration, Modelltransformation und Modellkompilierung besteht. In der Konfigurationsphase werden sämtliche Modellelemente (Dimensionen, Dimensionsausprägungen, Gruppen und Formeln) definiert und die Überlagerung von (vektoriellen) Formeln innerhalb des Modells bewusst zugelassen. Die Transformationsphase stellt die Konsistenz der modellierten Strukturen in Bezug auf deren Eindeutigkeit sicher, indem sämtliche Überschneidungen von Formeln innerhalb von Modellzellen in einem systemunterstützten Benutzerdialog beseitigt werden. Im dritten Teil des Konzepts, der Kompilierungsphase, werden die überschneidungsfreien, konzeptuellen Modelle in proprietäre Modellinstanzen übersetzt, sodass sie in Anwendungssystemen für Analysen verwendet werden können. Die prototypische Implementierung erfolgt anhand eines Modellierungseditors (Java) zur Umsetzung der Konzeptphase Modellkonfiguration. Modelltransformation und –kompilierung werden auf Basis von Microsoft Excel und VBA Programmen prototypisch umgesetzt. Abschließend kann mittels einer Evaluation auf positive Effekte des erarbeiteten Konzepts für die Qualität modellgetriebener Decision Support Systeme geschlossen werden.
46

Einsatz der FT-IR-Mikrospektroskopie und multivariater Auswertealgorithmen zur Identifizierung und Klassifizierung von Tumorgeweben

Richter, Tom 27 August 2002 (has links)
Das erste gestellte Ziel war es, die histologischen Strukturen eines Gewebedünnschnittes anhand der aufgenommenen FT-IR-Spektren sichtbar zu machen und diese mit dem konventionell gefärbten Schnitt und der autoradiographischen Aufnahme zu vergleichen. Dazu wurde ein Messsystem bestehend aus einem FT-IR-Spektrometer mit Mikroskop und einem computergesteuerten XY-Tisch aufgebaut und die notwendige Steuer- und Auswerte-Software entwickelt. Es konnte gezeigt werden, dass sich die FT-IR-Spektren mit geeigneten Auswerteverfahren zur Darstellung der histologischen Strukturen nutzen lassen. Dazu wurden zwei verschiedene Methoden eingesetzt, die PCA und die Fuzzy-Clusterung (FCM). Im zweiten Teil dieser Arbeit sollte ein Klassifikations-Algorithmus gefunden werden, mit dessen Hilfe sich Spektren von unbekannten Gewebeproben vorher definierten Modellen zuordnen lassen. Dazu wurde eine Spektren-Datenbank aus mehr als einhundert Gewebeproben angelegt. Aus dieser Datenbank wurden einige zehntausend Spektren ausgewählt und zu Modell-Datensätzen für sechs verschiedene Gewebetypen zusammengefasst. Für die Zuordnung unbekannter Spektren zu diesen Modellen wurde ein SIMCA-Klassifikations-Algorithmus entwickelt sowie ein LDA-Algorithmus eingesetzt. Für beide Methoden wurde die Klassi-fikations-Leistung anhand der Spezifität und Sensitivität bestimmt. Beide Klassifikations-Algorithmen führten zu guten Ergebnissen. Der SIMCA-Algorithmus erreichte eine Spezifität zwischen 97 % und 100 %, sowie eine Sensitivität zwischen 62 % und 78 % (bei einem Vertrauensintervall von 97,5 %). Der LDA-Algorithmus ermöglichte eine etwas bessere Sensitivität von 72 % bis 90 %, auf Kosten der Spezifität, welche zwischen 90 % und 98 % lag. Zusammenfassend kann festgestellt werden, dass sich die FT-IR-Mikrospektroskopie und die vorgestellten Auswerte-Algorithmen sehr gut zur Klassifizierung von Gewebedünnschnitten eignen.
47

Kombination von terrestrischen Aufnahmen und Fernerkundungsdaten mit Hilfe der kNN-Methode zur Klassifizierung und Kartierung von Wäldern

Stümer, Wolfgang 24 August 2004 (has links)
Bezüglich des Waldes hat sich in den letzten Jahren seitens der Politik und Wirtschaft ein steigender Informationsbedarf entwickelt. Zur Bereitstellung dieses Bedarfes stellt die Fernerkundung ein wichtiges Hilfsmittel dar, mit dem sich flächendeckende Datengrundlagen erstellen lassen. Die k-nächsten-Nachbarn-Methode (kNN-Methode), die terrestrische Aufnahmen mit Fernerkundungsdaten kombiniert, stellt eine Möglichkeit dar, diese Datengrundlage mit Hilfe der Fernerkundung zu verwirklichen. Deshalb beschäftigt sich die vorliegende Dissertation eingehend mit der kNN-Methode. An Hand der zwei Merkmale Grundfläche (metrische Daten) und Totholz (kategoriale Daten) wurden umfangreiche Berechnungen durchgeführt, wobei verschiedenste Variationen der kNN-Methode berücksichtigt wurden. Diese Variationen umfassen verschiedenste Einstellungen der Distanzfunktion, der Wichtungsfunktion und der Anzahl k-nächsten Nachbarn. Als Fernerkundungsdatenquellen kamen Landsat- und Hyperspektraldaten zum Einsatz, die sich sowohl von ihrer spektralen wie auch ihrer räumlichen Auflösung unterscheiden. Mit Hilfe von Landsat-Szenen eines Gebietes von verschiedenen Zeitpunkten wurde außerdem der multitemporale Ansatz berücksichtigt. Die terrestrische Datengrundlage setzt sich aus Feldaufnahmen mit verschiedenen Aufnahmedesigns zusammen, wobei ein wichtiges Kriterium die gleichmäßige Verteilung von Merkmalswerten (z.B. Grundflächenwerten) über den Merkmalsraum darstellt. Für die Durchführung der Berechnungen wurde ein Programm mit Visual Basic programmiert, welches mit der Integrierung aller Funktionen auf der Programmoberfläche eine benutzerfreundliche Bedienung ermöglicht. Die pixelweise Ausgabe der Ergebnisse mündete in detaillierte Karten und die Verifizierung der Ergebnisse wurde mit Hilfe des prozentualen Root Mean Square Error und der Bootstrap-Methode durchgeführt. Die erzielten Genauigkeiten für das Merkmal Grundfläche liegen zwischen 35 % und 67 % (Landsat) bzw. zwischen 65 % und 67 % (HyMapTM). Für das Merkmal Totholz liegen die Übereinstimmungen zwischen den kNN-Schätzern und den Referenzwerten zwischen 60,0 % und 73,3 % (Landsat) und zwischen 60,0 % und 63,3 % (HyMapTM). Mit den erreichten Genauigkeiten bietet sich die kNN-Methode für die Klassifizierung von Beständen bzw. für die Integrierung in Klassifizierungsverfahren an. / Mapping forest variables and associated characteristics is fundamental for forest planning and management. The following work describes the k-nearest neighbors (kNN) method for improving estimations and to produce maps for the attributes basal area (metric data) and deadwood (categorical data). Several variations within the kNN-method were tested, including: distance metric, weighting function and number of neighbors. As sources of remote sensing Landsat TM satellite images and hyper spectral data were used, which differ both from their spectral as well as their spatial resolutions. Two Landsat scenes from the same area acquired September 1999 and 2000 regard multiple approaches. The field data for the kNN- method comprise tree field measurements which were collected from the test site Tharandter Wald (Germany). The three field data collections are characterized by three different designs. For the kNN calculation a program with integration all kNN functions were developed. The relative root mean square errors (RMSE) and the Bootstrap method were evaluated in order to find optimal parameters. The estimation accuracy for the attribute basal area is between 35 % and 67 % (Landsat) and 65 % and 67 % (HyMapTM). For the attribute deadwood is the accuracy between 60 % and 73 % (Landsat) and 60 % and 63 % (HyMapTM). Recommendations for applying the kNN method for mapping and regional estimation are provided.
48

Methodik zur Erstellung von synthetischen Daten für das Qualitätsmanagement und der vorausschauenden Instandhaltung im Bereich der Innenhochdruck-Umformung (IHU)

Reuter, Thomas, Massalsky, Kristin, Burkhardt, Thomas 28 November 2023 (has links)
Unternehmen stehen zunehmend vor der Herausforderung, dem drohenden Wissensverlust durch demografischen Wandel und Mitarbeiterabgang zu begegnen. In Zeiten voranschreitender Digitalisierung gilt es, große Datenmengen beherrschbar und nutzbar zu machen, mit dem Ziel, einerseits die Ressourceneffizienz innerhalb des Unternehmens zu erhöhen und anderseits den Kunden zusätzliche Dienstleistungen anbieten zu können. Vor dem Hintergrund, ein effizientes Qualitätsmanagement und eine vorausschauende Instandhaltung mit ein und demselben System zu realisieren, sind zunächst technologische Kennzahlen und die Prozessführung zu bestimmen. Im Bereich der intelligenten Instandhaltung ist es jedoch nicht immer möglich, Fehlerzustände von physischen Anlagen im Serienbetrieb als Datensatz abzufassen. Das bewusste Zulassen von Fehlern unter realen Produktionsbedingungen könnte zu fatalen Ausfällen bis hin zur Zerstörung der Anlage führen. Auch das gezielte Erzeugen von Fehlern unter stark kontrollierten Bedingungen kann zeitaufwendig, kostenintensiv oder sogar undurchführbar sein.
49

Methodology for the creation of synthetic data for quality management and predictive maintenance in the field of hydroforming (IHU)

Reuter, Thomas, Massalsky, Kristin, Burkhardt, Thomas 28 November 2023 (has links)
Companies are increasingly challenged by the impending loss of knowledge due to demographic change and employee loss. In times of advancing digitalization, it is important to make large datasets accessible and usable, aiming at increasing resource efficiency within the company on the one hand and being able to offer customers additional services on the other. Given the background of implementing efficient quality management and predictive maintenance with the same system, technological key figures and process control must first be determined. In the field of intelligent maintenance, however, it is not always possible to record error states of physical systems in series operation as a data set. Deliberately allowing faults to occur under real production conditions could lead to fatal failures or even the destruction of the system. The targeted generation of faults under highly controlled conditions can also be timeconsuming, cost-intensive, or even impractical.
50

Computer vision approaches for quantitative analysis of microscopy images

Bahry, Ella 23 November 2021 (has links)
Mikroskopaufnahmen kompletter Organismen und ihrer Entwicklung ermöglichen die Erforschung ganzer Organismen oder Systeme und erzeugen Datensätze im Terabyte-Bereich. Solche großen Datensätze erfordern die Entwicklung von Computer-Vision-Tools, um Aufgaben wie Erkennung, Segmentierung, Klassifizierung und Registrierung durchzuführen. Es ist wünschenswert, Computer-Vision-Tools zu entwickeln, die nur eine minimale Menge an manuell annotierten Trainingsdaten benötigen. Ich demonstriere derartige Anwendungen in drei Projekte. Zunächst stelle ich ein Tool zur automatischen Registrierung von Drosophila-Flügeln (verschiedener Spezies) unter Verwendung von Landmarkenerkennung vor, das für die Untersuchung der Funktionsweise von Enhancern eingesetzt wird. Ich vergleiche die Leistung eines Shape-Model-Ansatzes mit der eines kleinen neuronalen Netz bei der Verfügbarkeit von nur 20 Trainingsbeispiele. Beide Methoden schneiden gut ab und ermöglichen eine präzise Registrierung von Tausenden von Flügeln. Das zweite Projekt ist ein hochauflösendes Zellkernmodell des C. elegans, das aus einem nanometeraufgelösten Elektronenmikroskopiedatensatz einer ganzen Dauerlarve erstellt wird. Diese Arbeit ist der erste Atlas der Dauerdiapause von C. elegans, der jemals erstellt wurde, und enthüllt die Anzahl der Zellkerne in diesem Stadium. Schließlich stelle ich eine Bildanalysepipeline vor, an der ich zusammen mit Laura Breimann und anderen gearbeitet habe. Die Pipeline umfasst die Punkterkennung von Einzelmolekül-Fluoreszenz-In-situ-Hybridisierung (smFISH), die Segmentierung von Objekten und die Vorhersage des Embryonalstadiums. Mit diesen drei Beispielen demonstriere ich sowohl generische Ansätze zur computergestützten Modellierung von Modellorganismen als auch maßgeschneiderte Lösungen für spezifische Probleme und die Verschiebung des Feldes in Richtung Deep-Learning. / Microscopy images of entire organisms and their development allows research in whole organisms or systems, producing terabyte scale datasets. Such big datasets require the development of computer vision tools to perform tasks such as detection, segmentation, classification, and registration. It is desirable to develop computer vision tools that require minimal manually annotated training data. I demonstrate such applications in three projects. First, I present a tool for automatic Drosophila wing (of various species) registration using landmark detection, for its application in studying enhancer function. I compare the performance of a shape model technique to a small CNN requiring only 20 training examples. Both methods perform well, and enable precise registration of thousands of wings. The second project is a high resolution nucleus model of the C. elegans, constructed from a nanometer-resolved electron microscopy dataset of an entire dauer larva. The nucleus model is constructed using a classical dynamic programing approach as well as a CNN approach. The resulting model is accessible via a web-based (CATMAID) open source and open access resource for the community. I also developed a CATMAID plugin for the annotation of segmentation objects (here, nucleus identity). This work is the first atlas of the C. elegans dauer diapause ever created and unveils the number of nuclei at that stage. Lastly, I detail an image analysis pipeline I collaborated on with Laura Breimann and others. The pipeline involves single molecule fluorescence in situ hybridization (smFISH) spot detection, object segmentation, and embryo stage prediction. The pipeline is used to study the dynamics of X specific transcriptional repression by condensin in the C. elegans embryo. With these three examples, I demonstrate both generic approaches to computational modeling of model organisms, as well as bespoke solutions to specific problems, and the shift in the field towards deep learning.

Page generated in 0.0707 seconds