171 |
Auswertung von Gefäßstrukturen in Laserscanning-VolumendatenMetz, Lars Heinz-Werner, Winter, Karsten 20 October 2017 (has links)
Inhalt der vorliegenden Arbeit ist die Vorstellung einer bildanalytischen Methodik zur räumlich bezogenen Quantifizierung morphologischer und topologischer Reifungsparameter von in vitro gewachsenem Fettgewebe. Diese Reifungsparameter sollen später Rückschlüsse auf die am Gewebewachstum beteiligten Wachstumsparameter im Hinblick auf deren Optimierung erlauben und somit als Grundlage einer qualitativen Analyse des Gewebes für die plastisch rekonstruktive Chirurgie dienen. Die Berechnung der einzelnen Reifungsparameter erfolgt im Rahmen einer Bildverarbeitungskette. Diese umfasst die Glättung und Ausheilung der aus dem Gewebe gewonnenen Volumendatensätze mittels eines gekoppelten anisotropen nichtlinearen Reaktionsdiffusionssystems, die Ermittlung des Bedeckungsgrades der kapillaren Strukturen mit Muskelzellen, die Berechnung der Kompaktheit, eine Skelettierung der Volumendatensätze und die Vektorisierung des entstandenen Skelettes. Anhand von Beispielen wird die Wirkungsweise sowohl der einzelnen Bildverarbeitungsschritte als auch der gesamten Bildverarbeitungskette dargestellt. Die Oberfläche der Blutgefäße des Gewebes und deren Skelett werden zum besseren Verständnis der extrahierten Reifungsparameter visualisiert. Eine statistische Auswertung der gewonnenen Reifungsparameter soll Informationen zur Verbesserung der Oxygenierungs- und Ernährungssituation des in vitro gewachsenen Gewebes liefern. Abschließend werden Ergebnisse der Analyse von Volumendatensätzen und des Vergleichs zur bisherigen Messmethode vorgestellt und diskutiert.
|
172 |
Digitale Vermessung und Auswertung von All-Sky-MeteorfotografienMolau, Sirko 07 January 1997 (has links)
Im Rahmen des ¨European Fireball Networks¨ fallen jährlich
etwa 100 Aufnahmen von hellen Feuerkugeln an. Zur Zeit kann
jedoch nur ein Bruchteil des Datenmaterials umfassend ausgewertet
werden, da die manuelle Vermessung der Aufnahmen an einem Meßtisch
sehr aufwendig ist. Im Rahmen der Diplomarbeit wurde das Programm
¨Fireball¨ zur automatischen Vermessung von Feuerkugelfotografien
entwickelt.
Die Arbeit beginnt mit einer umfassenden Einführung in die
Thematik der Meteorbeobachtung.
Die Algorithmen der digitalen Bildverarbeitung bilden den Schwerpunkt
der Diplomarbeit. Sie umfassen
* die Digitalisierung der Negative
* die automatische Segmentierung, Identifizierung und Vermessung
von Sternspuren (ohne Zusatzinformationen)
* die manuelle Vermessung der Meteorspur im digitalisierten Bild
Im Anschluß wird die Schnittstelle zu weiterführender Software
diskutiert.
Der zweite Schwerpunkt ist der Entwurf einer komfortablen grafischen
Benutzerschnittstelle. Deren Implementation erfolgt in C bei
Verwendung des Motif-Toolkits unter UNIX.
Die Arbeit endet mit dem Ausblick auf zukünftige Entwicklungen
sowie einem Glossar und dem Literaturverzeichnis.
|
173 |
25 Linux-KniffeTeam der Chemnitzer Linux-Tage, - 25 February 2009 (has links)
Eine Sammlung von 25 nützlichen Programmen und
Werkzeugen unter Linux, zusammengestellt anlässlich
der Chemnitzer Linux-Tage 2009
|
174 |
Towards a smarter light sheet microscopeHe, Jiaye 24 January 2020 (has links)
Selective plane illumination microscopy (SPIM) is becoming the method of choice for long-term 3D fluorescence imaging thanks to its low photo-toxicity and high imaging speed. However, SPIM is very data intensive: A single SPIM experiment can easily generate terabytes of image data, which is often overwhelming for biologists to handle. Moreover, large SPIM datasets often require additional computational power for
processing. There is a lack of optimized analysis software to visualize and quantify such large datasets. As a result, the data size burden is limiting the accessibility of this immensely powerful technology.
In this thesis, I investigated the root of the data burden in SPIM. I found that although the raw data volume generated by SPIM is large, the data product after processing is often very small in comparison. As a result, there are two ways of alleviating the data burden: the raw data to data product conversion ratio can be improved and the process of converting raw data to data product can be streamlined. In my Ph.D. project,
I demonstrated three different approaches to tackle the data burden in SPIM.
Firstly, I tested different lossless data compression methods on standard SPIM datasets that I collected during my thesis work. I found that integer compression algorithms are ideal for SPIM images. The data size can be reduced by more than half when compressed losslessly on-the-fly, reducing storage stress. Secondly, if the image quality could be improved, raw images would contain a higher amount of useful information and it would be less wasteful to store the large dataset. To illustrate this concept, I created a custom on-the-fly image analysis software that automatically selects the optimal imaging view in a multi-view SPIM experiment. By
applying the workflow to zebrafish embryo imaging, I showcase that each multi-view dataset contains more information than in the conventional case. Moreover, it became possible to reduce the number of imaging views without compromising data quality.
Lastly, raw data can also be converted into data product on-the-fly. The need to store raw images is often a result of the disconnect between imaging and data analysis. If the raw data can be analyzed in memory as soon as they are captured by the microscope, there is no need to keep the raw image data. I have built a custom image analysis pipeline to quantify zebrafish Rohon-Beard cells’ axon branching patterns. The image
analysis software semi-automatically performs sample surface extraction and image unwrapping. The resultant dataset is a flat lateral view of the embryo. The processed dataset is less than 10% the size of the original images. I also show that through directionality analysis, the processed data can be used to identify wild type embryos from drug-treated samples.
I also showcase a couple of other custom SPIM imaging workflows that I helped create. I have imaged patient-derived cancer spheroids and Xenopus oocytes in collaboration with other researchers. Here, the smart microscopy concept helped facilitate many data processing challenges involved. Overall, my thesis showcased that the data burden in SPIM can be addressed effectively by integrating image processing closely into the image capture process. I call this overall concept 'smart microscopy' and I believe it is the future of fluorescence microscopy.
|
175 |
Entwicklung und Umsetzung eines Moduls zur Inline-Faltenauswertung an KartonziehteilenMeyer, Martin 27 October 2015 (has links)
Die vorliegende Arbeit hat die Entwicklung und Validierung eines Inline-Faltenauswertungsmoduls zur Auswertung der Faltenverteilung an gezogenen Kartonformteilen im Prozess zum Ziel. Ein entsprechend konstruierter Versuchsaufbau ermöglicht die dafür notwendigen Bilddaten innerhalb des Ziehprozesses zu akquirieren und annähernd in Echtzeit auszuwerten.
Durch den Ausgleich der graduellen Beleuchtung kann unter Anwendung eines zweidimensionalen Frequenzfilters eine Kontrastoptimierung zwischen Falten und Hintergrund erreicht werden, die die Auswertung der Daten begünstigt. Mittels Kreuzkorrelation mit einem Faltenmodell kann so die Position von Falten in Bildausschnitten lokalisiert werden. Dieser neuartige Ansatz ermittelt Falten nicht nur punktuell, sondern bezieht auch die Umgebung eines Pixels in die Analyse ein. Dadurch wird eine differenzierte Klassifizierung erreicht, die robust gegenüber Bildfehlern und Rauschen ist.
Eine Korrekturfunktion berücksichtigt die durch die Abbildung der runden Zarge auf die Fokusebene resultierenden Positionsabweichungen und macht die Falten einer photogrammetrischen Messung zugänglich. So lassen sich mittlere Faltenabstände und deren Standardabweichungen ermitteln, die einem Vergleich mit Referenzmessmethoden standhalten. Mit Hilfe statistischer Tests kann gezeigt werden, dass vor allem aus hohen Faltenhalterkräften, und demzufolge feinverteilten Falten, größere Abweichungen zwischen dem Inline-Faltenauswertungsmodul und der Referenzmessmethode resultieren. Eine Fehlerdiskussion legt verschiedene Gründe für dieses Verhalten dar.
Weiterführende Untersuchungen weisen die prinzipielle Eignung des Verfahrens für abweichende Geometrien und Materialien nach, zeigen jedoch auch Grenzen des eingesetzten Systems auf. Basierend auf den gewonnenen Erkenntnissen werden Verbesserungsansätze vorgeschlagen, die die Limitierungen der entwickelten Methode reduzieren können. / The present thesis includes the development and validation of a module for inline-examination of wrinkle-distribution on deep-drawn paperboard containers within the deep drawing process. A suitably constructed test-device allows to acquire the necessary images within the process and their approximately real-time evaluation.
The usage of a two-dimensional frequency-filter accomplishes a contrast optimization between wrinkles and background by the compensation of a gradual illumination, which supports the evaluation of the wrinkles. Through the cross-correlation with a wrinkle-model, the position of wrinkles in image segments can be determined. This novel approach not only determines the wrinkles in a punctual way, but also it includes the environment of pixels. In this way a differentiating classification is possible, which is sturdy against image errors and noise.
A correcting function considers the position errors caused by the mapping of the round frame of the deep-drawn paperboard container to the focal plane and makes the wrinkles available for a photogrammetric measurement. In this way averaged wrinkle-distances and their standard deviation can be determined that withstands the comparison with certain reference measuring methods. By statistical tests can be shown, that especially high blankholder forces and therefor small wrinkles result in higher differences between the inline examination-module and the reference measuring method. An error discussion explains various reasons for this behavior.
Further tests prove the general suitability of the method for different geometries and materials, but also show limits of the applied system. Based on the gained knowledge, approaches for optimization are discussed that may improve the developed method.
|
176 |
Malignitätsgrading des Prostatakarzinoms mittels morphometrischer DeskriptorenGreim, Timo Klaus 21 February 2019 (has links)
Beim Prostatakarzinom handelt es sich, auf Deutschland bezogen, eindeutig um die häufigste Krebserkrankung und die dritthäufigste Krebstodesursache bei Männern. Neben diversen Umwelt- und Lifestyle-Faktoren konnte das Patientenalter als weiterer zentraler Risikofaktor identifiziert werden. Allerdings liegt als onkologische Besonderheit ein Großteil der Prostatakarzinome in einem klinisch inapparenten Stadium vor und hat daher keinen Einfluss auf die Lebensqualität und erwartung des betroffenen Mannes. Daraus leiten sich wiederum besondere Herausforderungen an mögliche Screeningprogramme und die verschiedenen Therapiekonzepte ab, da die Gefahr einer Überdiagnose und Übertherapie droht. Dabei reichen die momentan etablierten, kurativen und unter anderem vom Tumorstadium abhängigen Therapieoptionen von einer engmaschigen Befundkontrolle (Active Surveillance) bis hin zu einer radikalen Entfernung der Prostata.
Grundlage für die Diagnosestellung und Therapieentscheidung bildet dabei das histologische Gleason Grading des Pathologen. Im Allgemeinen beruht das Gleason Grading auf einer Analyse der Mengenanteile verschiedener histologischer Muster und einer morphologischen Beschreibung der Drüsenarchitektur, wobei die Summe der beiden häufigsten Wachstumsformen einen Score ergibt. Unter anderem in Übereinstimmung mit dem rezidivfreien Überleben werden im aktuellen Gleason Grading die Kombinationen aus fünf histologischen Wachstumsmustern zu fünf Malignitätsgruppen zusammengefasst und unterschieden. Aufgrund der relativ subjektiven qualitativen und quantitativen Beurteilung durch den Pathologen, weist das Gleason Grading trotz aller Anpassungen und Verbesserungen teils noch erhebliche Defizite in der intra und interindividuellen Reproduzierbarkeit auf. Aufgrund der auf einer Beschreibung der Drüsenmorphologie beruhenden Beurteilung des Prostatakarzinoms kann die medizinische Bildverarbeitung nicht nur durch die immensen Möglichkeiten der Musterextraktionsalgorithmen den Pathologen in seinem Arbeitsprozess beziehungsweise seiner Entscheidungsfindung unterstützen und insbesondere zu einer Standardisierung und Verbesserung der Reproduzierbarkeit beitragen.
In der vorliegenden Arbeit wird das Gleason Grading unter Anwendung expliziter histopathologischer Kenntnisse durch morphometrische Deskriptoren der medizinischen Bildverarbeitung abgebildet. Der hier etablierte Algorithmus gliedert sich in drei Abschnitte. Zunächst werden mit Hilfe diverser vorverarbeitender Bildbearbeitungsschritte die Drüsenepithelien aus den digitalisierten H&E gefärbten Schnitten von Nadelstanzbiopsien der Prostata extrahiert, um diese anschließend im zweiten Abschnitt der Tumordetektion zuführen zu können. Hierbei werden verschiedene Malignitätskriterien des Prostatakarzinoms unter bildmorphologischen Gesichtspunkten miteinander verknüpft und eine Identifikation der tumorösen Strukturen vorgenommen. Im dritten Abschnitt werden die gefundenen Tumorareale mittels zweier morphometrischer Deskriptoren verschiedenen Malignitätsstufen zugeordnet.:Bibliographische Beschreibung 3
Inhaltsverzeichnis 4
1 Einführung und Motivation zur Arbeit 6
1.1 Intention 6
1.2 Vorarbeiten 8
1.3 Forschungsstand 13
2 Pathologie des Prostatakarzinoms 18
2.1 Anatomie und Physiologie der Prostata 18
2.2 Ätiologie und Pathogenese 20
2.3 Diagnostik 22
2.4 Grading 27
2.5 Therapie 35
3 Methoden für ein formbasiertes Grading 41
3.1 Überblick 41
3.2 Vorverarbeitung 43
3.2.1 Skalierung 43
3.2.2 Farbseparierung 43
3.2.3 Histogrammanpassung 46
3.2.4 Kantenerhaltende Glättung 48
3.2.5 Binarisierung der Epithelien 50
3.3 Detektion 53
3.3.1 Wanddickenmessung 53
3.3.2 Formbetrachtung 60
3.3.3 Nachbarschaftsanalyse 61
3.4 Klassifikation 62
3.4.1 Inverse Kompaktheit 62
3.4.2 Lochanzahl 64
4 Material 68
4.1 Probenart und -gewinnung 68
4.2 Pilotdatensatz 70
4.3 Kohorte 70
5 Ergebnisse 73
5.1 Pilotdatensatz 76
5.2 Kohorte 81
6 Diskussion 85
7 Ausblick 92
8 Zusammenfassung 94
9 Literaturverzeichnis 97
Appendix 114
A.1 Abbildungsverzeichnis 114
A.2 Tabellenverzeichnis 117
A.3 Eigene Beiträge 118
A.4 Programmcode 119
Erklärung über die eigenständige Abfassung der Arbeit 124
Lebenslauf 125
Danksagung 126
|
177 |
Form und FormalisierungKahl, Hannes 19 March 2021 (has links)
Frühdrucke des Aldus Manutius und seiner Zeitgenossen in Hinsicht auf die Druckpraxis und zur Software gestützten Erfassung und Verarbeitung (optische Layout Erfassung).:1 Einleitung S. 1
2 Die Druckerei Aldus Manutius, das Drucken früh und spät S. 5
2.1 Das Drucken des Griechischen in Venedig S.5
2.2 Das Druckwesen nimmt seinen Ausgang im 15 Jh. / Medientheorie S. 22
2.2.1 Definition Autor S. 22
2.2.2 Definition Proportion und Formulierung der Hypothese S. 29
2.3 Lagen, Kustoden, Zeilen zählen S. 45
2.4 Die Aldinen Druckerei, ihre Arbeitsweise, ihre Ziele S. 78
2.5 Zur Bedeutung des Aldus Manutius und seiner Kreise für das Griechische S. 85
3 Technischer Teil: Document layout analysis S. 96
3.1 Die Software S. 96
3.1.1 Softwareaufbau S. 96
3.1.2 Pipeline der Software S. 98
3.2 Mathematische Grundlage der Beschreibung der Implementierung S. 99
3.3 Implementierung S. 108
3.3.1 Kanten gibt es doch gar nicht S. 108
3.3.2 Blattrand / Buchrand S. 125
3.3.3 Hintergrund und Vordergrund vs. Trägermaterial und Getragenes S. 136
3.3.4 Zusammenlegung angrenzender Punkte / Raum der verbundenen Komponenten S. 152
3.3.5 Definition Zeile S. 160
3.3.6 Potentielle Zeilen und die typographische Grundeinheit S. 171
3.3.7 Die Klasse der Abbildungen und des Buchschmucks S. 185
3.3.8 Boxen und Textblöcke S. 188
4 Zusammenfassung S. 203
A Druckerverzeichnis S. 205
B Literatur S. 208
|
178 |
Adaptiver Griff-in-die-Kiste: die methodische Lücke zwischen Forschung und IndustrieStuke, Tobias, Bartsch, Thomas, Rauschenbach, Thomas 27 January 2022 (has links)
Der Konferenzbeitrag zeigt den Forschungs- und Technikstand bezüglich des Griff-in-die-Kiste auf. Basierend auf einer Literaturrecherche werden Beispiele für regelbasierte und lernende Verfahren vorgestellt. Anschließend erfolgt eine systematische Gegenüberstellung der Verfahren. Hierfür werden die Anforderungen, die ein Griff-in-die-Kiste-System zu erfüllen hat, dargelegt. Die Kriterien resultieren aus einer Expertenbefragung des produktionstechnischen Umfelds der Weidmüller Gruppe. Neben den Anforderungen werden die Gewichtungen zur Bildung einer Rangfolge ermittelt. Die erarbeiteten Anforderungen dienen anschließend zur Bewertung der regelbasierten und lernenden Verfahren. Die Analyse mündet in einer methodischen Lücke zwischen beiden Paradigmen und stellt die Ausgangsbasis für die weitere Arbeit zur Entwicklung des industriellen Griff-in-die-Kiste dar. Abschließend werden erste Arbeitsergebnisse zur Objekterkennung von Reihenklemmen veröffentlicht. In einer Untersuchung werden die Zuverlässigkeit, die Robustheit sowie die Einrichtdauer einer Objekterkennung mithilfe von Deep Learning ermittelt. Das angestrebte Forschungsergebnis stellt einen Entwicklungsschritt von automatisierten Systemen, die in einem definierten Wirkbereich eigenständig arbeiten, zu autonomen Systemen, die selbstständig auf zeitvariante Größen reagieren, dar.
|
179 |
Robuster Entwurf und statistische Modellierung für Bildsensoren mit hochparalleler analoger BildverarbeitungseinheitGraupner, Achim 22 April 2013 (has links) (PDF)
Die gemeinsame Integration von Bildsensor und analoger hochparalleler Verarbeitungseinheit stellt eine Möglichkeit zur Realisierung von leistungsfähigen ein-chip Bildaufnahmesystemen dar. Die vorliegende Arbeit liefert Beiträge zum systematischen Entwurf von derartigen Systemen und analysiert bekannte und neuartige Schaltungstechniken bezüglich ihrer Eignung für deren Implementierung. Anhand des vom Autor mitentwickelten CMOS-Bildsensors mit hochparalleler analoger Bildverarbeitungseinheit werden die vorgestellten Methoden und Schaltungstechniken demonstriert.
Die Problematik beim Entwurf hochparalleler analoger Systeme besteht in der im Vergleich zu digitalen Systemen geringen Automatisierbarkeit. Es ist kein top-down-Entwurf möglich, da nicht jede beliebige Funktion mit beliebiger Genauigkeit realisierbar ist. Um die jeweilige Genauigkeit der Funktionsblöcke bei der Analyse des hochparallelen Systems berücksichtigen zu können, sind rechenaufwendige Simulationen nötig. Um diesen Rechenaufwand zu senken, wird vorgeschlagen, für die Simulation des Gesamtsystems einen angepaßten Simulator und für die Analyse der schaltungstechnischen Realisierung der Funktionsblöcke konventionelleWerkzeuge für elektrische Netzwerke zu verwenden. Die beiden Simulationsdomänen werden mit Hilfe von numerischen Verhaltensmodellen verbunden. Durch diese Trennung wird die Simulation des Gesamtsystems als Bestandteil des Entwurfsflusses praktikabel.
Für die Bewertung, inwieweit die zufälligen Schwankungen der Bauelementeparameter das Verhalten von Baublöcken beeinflussen, wird die Varianzanalyse als Alternative zur konventionellen Monte-Carlo-Analyse vorgeschlagen. Die Varianzanalyse ist wesentlich weniger rechenaufwendig und liefert genaue Resultate für alle Schaltungseigenschaften mit hinreichend glatten Parameterabhängigkeiten, wenn die Bauelementeparameter als normalverteilt und statistisch unabhängig angenommen werden können. Sie hat darüberhinaus den Vorteil, das Schaltungsverständnis für den Entwerfer zu erhöhen, da sofort die Bauelementeparameter mit dem größten Einfluß auf das Schaltungsverhalten identifiziert werden können.
Der Vergleich verschiedener Schaltungstechniken hat gezeigt, daß zeitdiskrete wertkontinuierliche Verfahren, bei denen die Information als Strom repräsentiert wird, für die Realisierung von hochparallelen analogen Systemen besonders geeignet sind. Als besonderer Vorteil ist die weitestgehende Unabhängigkeit des Verhaltens derartiger Schaltungen von Bauelementeparametern hervorzuheben.Weitere Schaltungstechniken, deren Verhalten von zufälligen Parameterabweichungen nur wenig beeinflußt werden, sind in einer Taxonomie zusammengefaßt.
Es wurde ein CMOS-Bildsensor mit hochparalleler analoger Bildverarbeitungseinheit und digitaler Ausgabe realisiert. Der current-mode-Bildsensor ist separat von der Verarbeitungseinheit angeordnet. Es wurden vier verschiedene Realisierungsmöglichkeiten untersucht und eine konventionelle integrierende voltage-mode Pixelzelle mit nachfolgendem differentiellen Spannungs- Strom-Wandler realisiert. Das Rechenfeld ist für die räumliche Faltung oder lineare Transformation von Bilddaten mit digital bereitzustellenden Koeffizienten ausgelegt. Dessen Operation basiert auf einer bit-weisen analogen Verarbeitung. Der Schaltkreis wurde erfolgreich getestet. Die nachgewiesene Bildqualität deckt sich in guter Näherung mit den bei der Simulation des Gesamtsystems getroffenen Vorhersagen / The joined implementation of an image sensor and a highly parallel analog processing unit is an advantageous approach for realizing efficient single-chip vision systems. This thesis proposes a design flow for the development of such systems. Moreover known and novel circuit techniques are analysed with respect for their suitability for the implementation of highly parallel systems. The presented methodologies and circuit techniques are demonstrated at the example of a CMOS image sensor with an embedded highly parallel analog image processing unit in whose design the author was involved.
One of the major problems in designing highly parallel analog circuits is the low automation compared to the design of digital circuits. As not every function can be realized with arbitrary accuracy top-down-design is not feasible. So, when analysing the system behaviour the respective precision of each function block has to be considered. As this is a very demanding task in terms of computing power, it is proposed to use a dedicated tool for the simulation of the system and conventional network analysis tools for the inspection of the circuit realizations. Both simulation domains are combined by means of numerical behavioural models. By using separate tools system-simulations of highly parallel analog systems as a part of the design flow become practicable.
Variance analysis basing on parameter sensitivities is proposed as an alternative to the conventional Monte-Carlo-analysis for investigating the influence of random device parameter variations on the system behaviour. Variance analysis requires much less computational effort while providing accurate results for all circuit properties with sufficiently smooth parameter dependencies if the random parameters can be assumed normally distributed and statistically independent. Additionally, variance analysis increases the designer’s knowledge about the circuit, as the device parameters with the highest influence on the circuit performance can immediately be identified.
The comparison of various circuit techniques has shown, that sampled-time continuous-valued current-mode principles are the best choice for realizing highly parallel analog systems. A distinctive advantage of such circuits is their almost independence from device parameters. A selection of further circuit techniques with low sensitivity to random device parameter variations are summarized in a taxonomy.
A CMOS image sensor with embedded highly parallel analog image processing unit has been implemented. The image sensor provides a current-mode output and is arranged separate from the processing unit. Four different possibilities for realizing an image sensor have been analysed. A conventional integrating voltage-mode pixel cell with a succeeding differential voltage- to-current-converter has been selected. The processing unit is designed for performing spatial convolution and linear transformation with externally provided digital kernels. It operates in bit-wise analog manner. The chip has been tested successfully. The measured image quality in good approximation corresponds with the estimations made with system simulations.
|
180 |
Reguläre bakterielle Zellhüllenproteine als biomolekulares TemplatWahl, Reiner 17 May 2003 (has links) (PDF)
Bacterial cell wall proteins (S-layer) are - due to both the capability to self-assemble into two-dimensional crystals and their distinct chemical and structural properties - suitable for the deposition of metallic particles at their surface . The cluster growth is subject of this thesis. The binding of metal complexes to S-layers of Bacillus sphaericus and Sporosarcina ureae and their subsequent reduction leads to the formation of regularly arranged platinum or palladium cluster arrays on the biomolecular template. A heterogeneous nucleation mechanism is proposed for this process consisting of the binding of metal complexes and their subsequent reduction. The kinetics of the process and the binding of the complexes to the protein are characterized by UV/VIS spectroscopy. This thesis focuses on structural investigations by means of transmission electron microscopy, electron holography, scanning force microscopy, image analysis, and image processing. Preferred cluster-deposition sites are determined by correlation averaging. A more precise determination and quantification is obtained by Multivariate Statistical Analysis. Furthermore a method for the electron beam induced formation of highly-ordered metallic cluster arrays in the transmission electron microscope and a fast screening method for surface layers of Gram-positive bacteria are presented. / Bakterielle Zellhüllenproteine (S-Layer) eignen sich durch ihre Fähigkeit zur Selbstassemblierung zu zweidimensionalen Kristallen und durch ihre besonderen chemischen und strukturellen Eigenschaften zur Abscheidung regelmäßiger metallischer Partikel auf ihrer Oberfläche. In dieser Arbeit wird das Clusterwachstum auf S-Layern untersucht. Die Anbindung von Metallkomplexen an S-Layer von Bacillus sphaericus und Sporosarcina ureae und deren Reduktion führt zur Abscheidung periodisch angeordneter metallischer Platin- bzw. Palladiumcluster auf dem Biotemplat. Für diese Clusterbildung wird ein heterogener Keimbildungsmechanismus vorgeschlagen, bestehend aus Komplexanbindung und Reduktion. Die Bestimmung der Prozeßkinetik und die Charakterisierung der Anbindung der Komplexe an das Protein erfolgt mittels UV/VIS-Spektroskopie. Den Schwerpunkt dieser Arbeit bilden strukturelle Untersuchungen mit Hilfe der Transmissionselektronenmikroskopie, der Elektronenholographie, der Rasterkraftmikroskopie und der Bildanalyse und Bildverarbeitung. Durch Korrelationsmittelung werden Strukturinformationen gewonnen, die eine Bestimmung der lateral bevorzugten Clusterpositionen ermöglichen. Für die auf S-Layern erzeugten Clusterarrays wird die Belegung der einzelnen Positionen mittels Multivariater Statistischer Analyse genauer quantifiziert. Außerdem werden eine Methode zur Erzeugung hochgeordneter metallischer Partikelarrays unter dem Einfluß des Elektronenstrahles im Transmissionselektronenmikroskop und eine Methode zum schnellen Test Gram-positiver Bakterienstämme auf die Existenz von S-Layern vorgestellt.
|
Page generated in 0.0937 seconds