Spelling suggestions: "subject:"digitales bildverarbeitung"" "subject:"digitales bildverarbeitungs""
1 |
Digitale Vermessung und Auswertung von All-Sky-MeteorfotografienMolau, Sirko 07 January 1997 (has links) (PDF)
Im Rahmen des ¨European Fireball Networks¨ fallen jährlich
etwa 100 Aufnahmen von hellen Feuerkugeln an. Zur Zeit kann
jedoch nur ein Bruchteil des Datenmaterials umfassend ausgewertet
werden, da die manuelle Vermessung der Aufnahmen an einem Meßtisch
sehr aufwendig ist. Im Rahmen der Diplomarbeit wurde das Programm
¨Fireball¨ zur automatischen Vermessung von Feuerkugelfotografien
entwickelt.
Die Arbeit beginnt mit einer umfassenden Einführung in die
Thematik der Meteorbeobachtung.
Die Algorithmen der digitalen Bildverarbeitung bilden den Schwerpunkt
der Diplomarbeit. Sie umfassen
* die Digitalisierung der Negative
* die automatische Segmentierung, Identifizierung und Vermessung
von Sternspuren (ohne Zusatzinformationen)
* die manuelle Vermessung der Meteorspur im digitalisierten Bild
Im Anschluß wird die Schnittstelle zu weiterführender Software
diskutiert.
Der zweite Schwerpunkt ist der Entwurf einer komfortablen grafischen
Benutzerschnittstelle. Deren Implementation erfolgt in C bei
Verwendung des Motif-Toolkits unter UNIX.
Die Arbeit endet mit dem Ausblick auf zukünftige Entwicklungen
sowie einem Glossar und dem Literaturverzeichnis.
|
2 |
Beitrag zur Untersuchung des Formänderungsvermögens metallischer Werkstoffe unter besonderer Berücksichtigung des hydrostatischen SpannungsanteilsKaiser, Peter 04 March 2002 (has links) (PDF)
Numerische Simulationen auf der Basis der Kontinuumsmechanik und Plastomechanik erweisen sich zunehmend als geeignete Werkzeuge zur Optimierung von Umformprozessen. Ein Vergleich mit dem Formänderungsvermögen des Werkstoffes erbringt dabei Aussagen zu gefährdeten Materialbereichen.
Mit einer kontinuumsmechanisch begründeten Herangehensweise wird der Einfluss des hydrostatischen Spannungsanteils auf das Formänderungsvermögen metallischer Werkstoffe untersucht. Zur Ermittlung von Parametern in Versagenskriterien wird eine experimentell-theoretische Vorgehensweise für Raumtemperatur und kleine Formänderungsgeschwindigkeiten vorgestellt, deren Übertragung auf höhere Temperaturen und Umformgeschwindigkeiten möglich ist.
Der Werkstoff 20MoCrS4 wird bis zum Versagen umgeformt. Der experimentelle Zugang erfolgt über gekerbte Rundzugproben, wobei eine Potentialsonde und eine elektronische Bildverarbeitung als zusätzliche experimentelle Techniken einbezogen werden. Die Entwicklung der Spannungs- und Deformationszustände bis zum Versagenszeitpunkt werden mit Hilfe der FEM ermittelt und für die Parameteridentifikation in Versagenskriterien genutzt.
|
3 |
Digitale Vermessung und Auswertung von All-Sky-MeteorfotografienMolau, Sirko 07 January 1997 (has links)
Im Rahmen des ¨European Fireball Networks¨ fallen jährlich
etwa 100 Aufnahmen von hellen Feuerkugeln an. Zur Zeit kann
jedoch nur ein Bruchteil des Datenmaterials umfassend ausgewertet
werden, da die manuelle Vermessung der Aufnahmen an einem Meßtisch
sehr aufwendig ist. Im Rahmen der Diplomarbeit wurde das Programm
¨Fireball¨ zur automatischen Vermessung von Feuerkugelfotografien
entwickelt.
Die Arbeit beginnt mit einer umfassenden Einführung in die
Thematik der Meteorbeobachtung.
Die Algorithmen der digitalen Bildverarbeitung bilden den Schwerpunkt
der Diplomarbeit. Sie umfassen
* die Digitalisierung der Negative
* die automatische Segmentierung, Identifizierung und Vermessung
von Sternspuren (ohne Zusatzinformationen)
* die manuelle Vermessung der Meteorspur im digitalisierten Bild
Im Anschluß wird die Schnittstelle zu weiterführender Software
diskutiert.
Der zweite Schwerpunkt ist der Entwurf einer komfortablen grafischen
Benutzerschnittstelle. Deren Implementation erfolgt in C bei
Verwendung des Motif-Toolkits unter UNIX.
Die Arbeit endet mit dem Ausblick auf zukünftige Entwicklungen
sowie einem Glossar und dem Literaturverzeichnis.
|
4 |
Untersuchungen zur elastisch-plastischen Bruchmechanik der Grenzflächenrisse mittels des Moireverfahrens und der FEMTelgkamp, Jens 15 March 2001 (has links) (PDF)
Das geometrische In-plane-Moireverfahren wird benutzt, um das
Deformationsfeld um einen Riss in einem geschweißten Verbund zweier unterschiedlicher Metalle sowie in homogenen Proben dieser Materialien zu
untersuchen. Konkret werden Vierpunktbiegeproben benutzt, wobei die
Grenzflächen der Verbundproben durch Explosionsschweißen (Sprengplattieren)
hergestellt werden.
In Verbindung mit der digitalen Bildverarbeitung wird das Feld der
Verschiebungen zum Zeitpunkt der Rissinitiierung als primäres Resultat aus den
Isothetenfeldern ermittelt. Aus diesen Verschiebungsfeldern lassen sich
mittels eines Approximationsverfahrens weitere Größen wie Verzerrungen und
Spannungsgrößen an der Oberfläche ableiten.
Zusätzlich werden dreidimensionale elastisch-plastische FEM-Berechnungen für
die homogenen Proben und die Proben mit Grenzflächenriss durchgeführt.
Das J-Integral wird aufgrund der experimentell und numerisch gewonnenen Daten
für den Rissinitiierungszeitpunkt berechnet. Außerdem findet ein Vergleich mit
J-Integralwerten statt, die mit Methoden der Materialprüfnormen bestimmt
werden.
|
5 |
Beitrag zur Untersuchung des Formänderungsvermögens metallischer Werkstoffe unter besonderer Berücksichtigung des hydrostatischen SpannungsanteilsKaiser, Peter 20 July 2001 (has links)
Numerische Simulationen auf der Basis der Kontinuumsmechanik und Plastomechanik erweisen sich zunehmend als geeignete Werkzeuge zur Optimierung von Umformprozessen. Ein Vergleich mit dem Formänderungsvermögen des Werkstoffes erbringt dabei Aussagen zu gefährdeten Materialbereichen.
Mit einer kontinuumsmechanisch begründeten Herangehensweise wird der Einfluss des hydrostatischen Spannungsanteils auf das Formänderungsvermögen metallischer Werkstoffe untersucht. Zur Ermittlung von Parametern in Versagenskriterien wird eine experimentell-theoretische Vorgehensweise für Raumtemperatur und kleine Formänderungsgeschwindigkeiten vorgestellt, deren Übertragung auf höhere Temperaturen und Umformgeschwindigkeiten möglich ist.
Der Werkstoff 20MoCrS4 wird bis zum Versagen umgeformt. Der experimentelle Zugang erfolgt über gekerbte Rundzugproben, wobei eine Potentialsonde und eine elektronische Bildverarbeitung als zusätzliche experimentelle Techniken einbezogen werden. Die Entwicklung der Spannungs- und Deformationszustände bis zum Versagenszeitpunkt werden mit Hilfe der FEM ermittelt und für die Parameteridentifikation in Versagenskriterien genutzt.
|
6 |
Optimierung und Auswirkungen von ikonischen Bildfusionsverfahren zur Verbesserung von fernerkundlichen AuswerteverfahrenKlonus, Sascha 10 February 2012 (has links)
Die Verfügbarkeit von Fernerkundungsdaten ist in den letzten Jahren stark gestiegen. Spätestens seit der Entwicklung von Google Earth wächst auch das Interesse der Allgemeinheit an Fernerkundungsdaten. Aktuell ist eine Vielzahl von Satelliten- und flugzeuggestützten Fernerkundungssystemen operationell verfügbar. Neue Techniken in der Fernerkundung erbringen immer höhere räumliche und zeitliche Auflösungen.
Daten, die von den verschiedenen Sensoren aufgenommen werden, unterscheiden sich daher in spektraler, räumlicher sowie temporaler Auflösung. Eines haben die meisten dieser Sensoren aber gemeinsam, nämlich, dass die höchste räumliche Auflösung nur im panchromatischen Modus erzeugt werden kann. Das Verhältnis zwischen der hoch aufgelösten panchromatischen und der niedrig auflösenden multispektralen Aufnahme eines Sensors liegt dabei zwischen 1:2 (SPOT 4) und 1:8 (DMC - Beijing-1). Diese werden in der Regel auf Bilddaten angewandt, die vom gleichen Sensor zur gleichen Zeit aufgenommen wurden (unisensorale, unitemporale Fusion). Einige Sensoren erzeugen allerdings nur panchromatische Bilder, andere, wie das neue deutsche System RapidEye, nur multispektrale Daten. Zur Erzeugung von hoch bzw. höchst aufgelösten multispektralen Bildern müssen hier sensorübergreifend Bilddaten fusioniert werden, die zu verschiedenen Zeitpunkten aufgenommen wurden (multisensorale, multitemporale Fusion). Benutzt man Daten von unterschiedlichen Sensoren, so kann das Verhältnis zwischen der hoch aufgelösten panchromatischen und der niedrig auflösenden multispektralen Aufnahme sogar 1:30 (Ikonos-Panchromatisch : Landsat-Multispektral) oder höher betragen. Neben dem Verhältnis der panchromatischen Komponente zu der multispektralen Komponente ist die Veränderung der spektralen Werte bei der Fusion aber noch entscheidender. Die Mehrzahl der entwickelten Fusionsverfahren weist dabei Farbveränderungen auf. Zudem beeinflussen diese Farbveränderungen auch anschließende Analysen. Das allgemeine Ziel der Daten- bzw. auch der Bildfusion ist: verschiedene Daten zusammenzuführen und mehr Informationen aus diesen Daten zu erhalten als aus jedem der einzelnen Sensoren allein (1+1=3). Die Fragestellung, die auch dieser Arbeit zugrunde liegt, lautet: Kann man mehr Informationen aus den fusionierten Datensätzen extrahieren als aus den einzelnen Datensätzen allein? Und wenn ja, wie viel mehr Informationen können extrahiert werden? Das erste Ziel dieser Arbeit ist ein Verfahren zu finden, welches die zu untersuchenden Merkmale so verbessert, dass der Informationsgehalt maximiert wird und damit höher ist als in den einzelnen originalen Datensätzen. In Bezug auf die Fusion von hochaufgelösten panchromatischen mit niedriger aufgelösten multispektralen Daten bedeutet dies, dass die fusionierten Daten die gleich hohe Auflösung der panchromatischen Daten besitzen, ohne dass Farbveränderungen auftreten. Diese fusionierten Daten sollten sich nicht von einem Bild unterscheiden, das mit einem multispektralen Sensor in der räumlichen Auflösung der panchromatischen Eingangsdaten aufgenommen wurde. Um dieses Ziel zu erreichen, wurde die Fusion auf der Pixelebene ausgewählt, da diese für die Fernerkundung von höchster Relevanz ist, weil die ikonischen Bildfusionsverfahren am weitesten entwickelt sind und die Eingangsdaten am wenigsten vor der Anwendung der Fusionsmethode verändert werden. Da es eine große Anzahl an Verfahren im Bereich der Bildfusion gibt, wurde zunächst auf Basis einer Literaturrecherche eine Auswahl von Verfahren getroffen. Zur Beurteilung dieser Verfahren ist es notwendig, quantitativ-statistische Verfahren auszuwählen, da eine rein visuelle Auswertung, zu subjektiv ist. Um das zweite Ziel dieser Arbeit zu erreichen wurde eine Literaturrecherche durchgeführt. Die ausgewählten Evaluierungsverfahren sollten soweit wie möglich automatisch ablaufen und nur wenig manuellen Input benötigen. Das sichert eine erhöhte Objektivität. Das Endergebnis sollte ein Wert für jeden Kanal oder das Bild sein, so dass eindeutige Rückschlüsse auf die Qualität des Bildes möglich sind. Bei der Auswahl dieser Verfahren ist darauf zu achten, dass sowohl Evaluierungsverfahren ausgewählt werden, welche die spektrale Veränderung messen, aber auch solche, welche die räumliche Verbesserung messen. Die Evaluierungsverfahren wurden für 7 Kategorien ausgewählt. Für die Kategorie 1 wird der ERGAS eingesetzt. In der zweiten Kategorie sollen die Bilddifferenzen berechnet werden. Da die einfache Differenz zweier Bilder große Datenmengen produziert und nicht ein einzelner Wert verfügbar ist, wird die Grauwertabweichung pro Pixel als Kriterium ausgewählt. Mit der dritten Kategorie sollen Ähnlichkeiten im Bildaufbau gemessen werden. Dazu eignet sich am besten der Korrelationskoeffizient. In der vierten Kategorie werden die Ähnlichkeiten der räumlichen Details gemessen. Da es hier wieder um Ähnlichkeiten geht, bietet es sich erneut an, den Korrelationskoeffizienten auch hier einzusetzen. Diesmal allerdings die Korrelation nach Hochpassfilterung zwischen den panchromatischen Eingangsdaten und den fusionierten Bildern. Kategorie 5 betrifft die Qualität der lokalen räumlichen
Verbesserungen. Dazu wird die Kantendetektion mit dem Canny Kantenoperator für diese Arbeit ausgewählt. Bei der sechsten Kategorie geht es um die Messung von Unstimmigkeiten in den Spektren. Der SAM wurde daher ausgewählt. Die siebte Kategorie beschreibt die globalen Unterschiede in den Bildern. Dazu wird der SSIM verwendet. Nachdem die Evaluierungsverfahren in den sieben Kategorien ausgewählt wurden, zeigte die Anwendung dieser Evaluierungsmethoden, dass die Ehlers Fusion das beste Fusionsverfahren ist. Die uantitativstatistischen Untersuchungen präsentierten die besten Ergebnisse für die Ehlers Fusion. Die Werte zur spektralen
Untersuchung unterschieden sich nur im geringem Maße von den orginalen Werten. Aus diesem Grund wurde die Ehlers Fusion für weitere Untersuchungen in dieser Arbeit ausgewählt und optimiert. Um den Mehrwert von fusionierten Daten zu ermitteln, wurde die Interpretation der fusionierten Fernerkundungsdaten durchgeführt. Bei der unisensoralen Bildfusion hat sich gezeigt, dass die Mehrzahl der Verfahren eine Verbesserung bei der Interpretation der Daten erreicht. Objekte können genauer erkannt werden und auch die Farben bleiben erhalten. Bei den multitemporalen Datensätzen und insbesondere bei der Fusion von Radardaten erreicht dieses Ziel nur ein einziges Verfahren: die Ehlers Fusion. Die Interpretation der Daten wird auch bei den multitemporalen Daten erleichtert. Es werden nicht nur die Kanten von Objekten geschärft, wie beim Brovey Verfahren, sondern auch die spektralen Werte bleiben erhalten. Die Werterhaltung ist besonders wichtig, da durch Veränderung der Farbwerte die genaue Feldfrucht nicht mehr bestimmt werden kann und eine Interpretation dadurch erschwert bzw. unmöglich wird. Bei der CAPI (Computer Assisted Photo Interpretation) konnten durch die Ehlers Fusion vor allem zwei Faktoren der Interpretation deutlich verbessert werden: Zum einen gab es eine schärfere Abgrenzung der Flächengrenzen von unterschiedlich genutzten landwirtschaftlichen Flächen im Vergleich mit den originalen spektralen Daten und zum anderen können Pflanzen, z.B. Weinberge, die nur einen Teil des Bodens bedecken, besser erkannt werden. Bei der unitemporalen Klassifikation stellte sich heraus, dass die fusionierten Daten eine höhere Genauigkeit haben, wenn für die Klassifikation nur die multispektralen Daten verwendet werden. Werden zusätzlich noch die panchromatischen Daten als weiterer Kanal für die Klassifikation herangezogen, so ist die Genauigkeit gleich. Bei der multitemporalen Klassifikation zeigte sich dagegen, dass fusionierte Daten genauer klassifiziert werden können als die Daten mit einem zusätzlichen panchromatischen Kanal. Da bei der Klassifikation mit einem panchromatischen Kanal, der Aufnahmetermin nicht mit den multispektralen Daten übereinstimmt. Bei der Klassifikation mit fusionierten Radardaten zeigte sich, dass die fusionierten Daten eine detailliertere und damit verbesserte Klassifikation erzeugen. Fusionierte Daten können also dabei helfen, mehr Informationen aus den Eingangsdaten zu extrahieren als aus jeden der einzelnen Datensätze. Diese Arbeit hat gezeigt, dass die Genauigkeiten der Klassifikation sich erhöhen kann, wenn die Daten vorher fusioniert werden. Auch die Interpretation kann deutlich dadurch erleichtert werden, dass nicht der panchromatische Kanal und die multispektralen Kanäle getrennt voneinander betrachtet werden müssen. Man kann sich auf ein fusioniertes Bild konzentrieren und seine Interpretation durchführen.
|
7 |
Automatisierte Ermittlung der Vorzugsrichtung von Nervenfasern in mikroskopischen Abbildungen des menschlichen GehirnSchätzchen, Sarah 25 July 2023 (has links)
Diese Arbeit befasst sich mit der automatisierten Analyse der Ausrichtungen von Neuronenfasern in Mikroskopiebildern des menschlichen Gehirns. Für eine solche Analyse wurden vom Paul-Flechsig-Institut für Hirnforschung Leipzig (PFI) Fluoreszenzbilddaten zur Verfügung gestellt. Um für diese Daten Faserausrichtungen zu ermitteln, werden drei Schritte durchgeführt: Neuronenfasern werden hervorgehoben, bzw. freigestellt, es werden Orientierungen zu diesen zugeordnet und die hierdurch ermittelten Ergebnisse werden visualisiert. Es werden für jeden dieser Schritte mehrere Verfahren der klassischen Bildverarbeitung vorgestellt und die Auswirkung verschiedener Parameter auf deren Ergebnisse untersucht. Betrachtet werden Verfahren zur Kontrasterhöhung, Gauß-Filter, auf Hessematrizen basierende Filter, Berechnung von Phasenübereinstimmung und eine Wavelet-Transformation. Alle während dieser Arbeit vorgenommenen Implementierungen stehen als Python-Skripte auf GitHub (https://github.com/saphyll/fiber-orientation) zur Verfügung.:Einleitung
1. Grundlagen
1.1 Datengrundlage
1.2 Architektur
1.3 Grundlagen der Bildverarbeitung
1.3.1 Histogramme
1.3.2 Konvolution
1.3.3 Gaußkernel
1.3.4 Hessematrix und Eigenvektoren
1.4.5 Fourier-Transformation
2. Faseranalyse in 2D
2.1 Hervorhebung von Fasern
2.1.1 Histogram Equalization
2.1.2 Gauß-Filter
2.1.3 Hessematrix-basierte Filter
2.1.4 Phase Congruency
2.1.5 Isotropic Undecimated Wavelet Transform
2.2 Analyse und Visualisierung von Faserrichtungen
2.2.1 Richtungshistogramme
2.2.2 Kacheln
2.2.3 Direkte Ergebnisbilder
3. Zusammenfassung und Ausblick / This thesis covers the automated analysis of fiber orientations in microscopic images of the human brain in regard to data provided by the Paul Flechsig Institute of Brain Research Leipzig (PFI). For the retrieval of information about fiber orientations, three steps are used: An enhancement of fiber visibility and definition, an assignment of orientations to those fibers and a visualisation of fibers and their orientations. Multiple methods from classical image processing are presented for each of these steps and are evaluated according to the available data. These methods include contrast enhancement, gaussian filters, hessian filters, calculation of phase congruency and a wavelet transformation. All implementations resulting from this thesis are available as Python scripts on GitHub (https://github.com/saphyll/fiber-orientation).:Einleitung
1. Grundlagen
1.1 Datengrundlage
1.2 Architektur
1.3 Grundlagen der Bildverarbeitung
1.3.1 Histogramme
1.3.2 Konvolution
1.3.3 Gaußkernel
1.3.4 Hessematrix und Eigenvektoren
1.4.5 Fourier-Transformation
2. Faseranalyse in 2D
2.1 Hervorhebung von Fasern
2.1.1 Histogram Equalization
2.1.2 Gauß-Filter
2.1.3 Hessematrix-basierte Filter
2.1.4 Phase Congruency
2.1.5 Isotropic Undecimated Wavelet Transform
2.2 Analyse und Visualisierung von Faserrichtungen
2.2.1 Richtungshistogramme
2.2.2 Kacheln
2.2.3 Direkte Ergebnisbilder
3. Zusammenfassung und Ausblick
|
8 |
Untersuchungen zur elastisch-plastischen Bruchmechanik der Grenzflächenrisse mittels des Moireverfahrens und der FEMTelgkamp, Jens 01 March 2001 (has links)
Das geometrische In-plane-Moireverfahren wird benutzt, um das
Deformationsfeld um einen Riss in einem geschweißten Verbund zweier unterschiedlicher Metalle sowie in homogenen Proben dieser Materialien zu
untersuchen. Konkret werden Vierpunktbiegeproben benutzt, wobei die
Grenzflächen der Verbundproben durch Explosionsschweißen (Sprengplattieren)
hergestellt werden.
In Verbindung mit der digitalen Bildverarbeitung wird das Feld der
Verschiebungen zum Zeitpunkt der Rissinitiierung als primäres Resultat aus den
Isothetenfeldern ermittelt. Aus diesen Verschiebungsfeldern lassen sich
mittels eines Approximationsverfahrens weitere Größen wie Verzerrungen und
Spannungsgrößen an der Oberfläche ableiten.
Zusätzlich werden dreidimensionale elastisch-plastische FEM-Berechnungen für
die homogenen Proben und die Proben mit Grenzflächenriss durchgeführt.
Das J-Integral wird aufgrund der experimentell und numerisch gewonnenen Daten
für den Rissinitiierungszeitpunkt berechnet. Außerdem findet ein Vergleich mit
J-Integralwerten statt, die mit Methoden der Materialprüfnormen bestimmt
werden.
|
9 |
Einführung in die Digitale Bildverarbeitung: Lehrbuch für ingenieurwissenschaftliche StudiengängeRichter, Christiane, Teichert, Bernd 07 February 2024 (has links)
Das Buch gibt eine Einführung in die Digitale Bildverarbeitung. Der Inhalt des Buches gliedert sich in sechs Kapitel. Im ersten Kapitel werden die wichtigsten Definitionen und Anwendungsgebiete der Digitalen Bildverarbeitung sowie wesentliche Komponenten eines digitalen Bildverarbeitungssystems erklärt. Das zweite Kapitel befasst sich mit den Grundlagen digitaler Bilder, den Bilddatenformaten und Kompressionsverfahren. Die Grundlagen der Farbtheorie und ein kurzer Überblick über die wichtigsten Farbsysteme werden im dritten Kapitel vermittelt. Die zwei anschließenden Kapitel beschäftigen sich mit der Manipulation von Grauwerten. Der Schwerpunkt liegt hier auf den Punktoperationen und den Filtertechniken. Das letzte Kapitel behandelt die für die Lehrgebiete Photogrammetrie, Fernerkundung und Geoinformationssysteme überaus wichtigen Grundlagen der geometrischen Transformation.:Vorwort
1. Einführung in die digitale Bildverarbeitung
1.1 Definition der Bildverarbeitung
1.2 Anwendungsgebiete der Digitalen Bildverarbeitung
1.3 Komponenten eines Bildverarbeitungssystems
2. Digitale Bilder
2.1 Entstehung digitaler Bilder
2.2 Bildmatrix und Grauwerte
2.3 Digitale Bilder im Ortsbereich
2.3.1 Bildrepräsentation
2.3.2 Auflösung eines Pixels
2.3.3 Das Pixelkoordinatensystem
2.3.4 Grundsätzliche Festlegungen
2.3.5 Topologien oder Nachbarschaftsrelationen
2.3.6 Distanzen
2.4 Eigenschaften digitaler Bilder
2.4.1 Mittelwert und mittlere quadratische Abweichung
2.4.2 Varianz und Standardabweichung
2.4.3 Histogramm
2.4.4 Stochastische Einflüsse
2.5 Kompressionen und Datenformate
2.5.1 Ausgewählte Verfahren zur Bildkompression
2.5.2 Bilddatenformate
3. Farbtheorie
3.1 Was ist Farbe?
3.2 Farbsysteme
3.2.1 RGB- und CMY- Farbsystem
3.2.2 Das Farbdreieck (Maxwell’sches Dreieck)
3.2.3 Das IHS- Modell
3.2.4 Das CIE- Farbmodell
3.3 Bildwiedergabe
3.4 Farbmanipulation
4. Punktoperationen
4.1 Schwellwertoperation zur Erzeugung von Binärbildern
4.2 Arithmetische Bildoperationen
4.3 Logische oder Boolesche Kombinationen
4.4 Kontrast- und Helligkeitsänderungen
4.4.1 Kontrastübertragungsfunktionen
4.4.2 Kontrastveränderung durch Histogrammanpassungen
4.4.3 Äquidensitenherstellung
5. Filteroperationen
5.1 Lineare Filter
5.1.1 Tiefpassfilter
5.1.2 Hochpassfilter
5.1.2.5 Schärfung
5.2 Morphologische Filter
5.2.1 Medianfilter
5.2.2 Minimum- und Maximumfilter
5.2.3 Dilatation und Erosion im Binärbild
5.2.4 Opening und Closing
6. Geometrische Bildtransformationen
6.1 Koordinatentransformationen im 2D-Raum
6.2 Direkte und indirekte Transformation
6.2.1 Direkte Transformation
6.2.2 Indirekte Transformation
6.3 Resampling
6.3.1 Nächster Nachbar
6.3.2 Bilineare Interpolation
6.3.3 Interpolationen höherer Ordnung
6.3.4 Zusammenfassung der Interpolationsmethoden
Quellennachweis
Sachregister / The book provides an introduction into digital image processing. The content of the book is divided into six chapters. In the first chapter, the most important definitions and areas of application of digital image processing as well as essential components of a digital image processing system are explained. The second chapter deals with the basics of digital images, image data formats and compression methods. The basics of color theory and a brief overview of the most important color systems are presented in the third chapter. The following two chapters deal with the manipulation of gray values. The focus here is on point operations and filtering techniques. The last chapter deals with the fundamentals of geometric transformation, which are extremely important for the areas of photogrammetry, remote sensing and geographic information systems.:Vorwort
1. Einführung in die digitale Bildverarbeitung
1.1 Definition der Bildverarbeitung
1.2 Anwendungsgebiete der Digitalen Bildverarbeitung
1.3 Komponenten eines Bildverarbeitungssystems
2. Digitale Bilder
2.1 Entstehung digitaler Bilder
2.2 Bildmatrix und Grauwerte
2.3 Digitale Bilder im Ortsbereich
2.3.1 Bildrepräsentation
2.3.2 Auflösung eines Pixels
2.3.3 Das Pixelkoordinatensystem
2.3.4 Grundsätzliche Festlegungen
2.3.5 Topologien oder Nachbarschaftsrelationen
2.3.6 Distanzen
2.4 Eigenschaften digitaler Bilder
2.4.1 Mittelwert und mittlere quadratische Abweichung
2.4.2 Varianz und Standardabweichung
2.4.3 Histogramm
2.4.4 Stochastische Einflüsse
2.5 Kompressionen und Datenformate
2.5.1 Ausgewählte Verfahren zur Bildkompression
2.5.2 Bilddatenformate
3. Farbtheorie
3.1 Was ist Farbe?
3.2 Farbsysteme
3.2.1 RGB- und CMY- Farbsystem
3.2.2 Das Farbdreieck (Maxwell’sches Dreieck)
3.2.3 Das IHS- Modell
3.2.4 Das CIE- Farbmodell
3.3 Bildwiedergabe
3.4 Farbmanipulation
4. Punktoperationen
4.1 Schwellwertoperation zur Erzeugung von Binärbildern
4.2 Arithmetische Bildoperationen
4.3 Logische oder Boolesche Kombinationen
4.4 Kontrast- und Helligkeitsänderungen
4.4.1 Kontrastübertragungsfunktionen
4.4.2 Kontrastveränderung durch Histogrammanpassungen
4.4.3 Äquidensitenherstellung
5. Filteroperationen
5.1 Lineare Filter
5.1.1 Tiefpassfilter
5.1.2 Hochpassfilter
5.1.2.5 Schärfung
5.2 Morphologische Filter
5.2.1 Medianfilter
5.2.2 Minimum- und Maximumfilter
5.2.3 Dilatation und Erosion im Binärbild
5.2.4 Opening und Closing
6. Geometrische Bildtransformationen
6.1 Koordinatentransformationen im 2D-Raum
6.2 Direkte und indirekte Transformation
6.2.1 Direkte Transformation
6.2.2 Indirekte Transformation
6.3 Resampling
6.3.1 Nächster Nachbar
6.3.2 Bilineare Interpolation
6.3.3 Interpolationen höherer Ordnung
6.3.4 Zusammenfassung der Interpolationsmethoden
Quellennachweis
Sachregister
|
10 |
Method Development for Three-Dimensional Particle Tracing in Laboratory Fast X-ray MicrotomographySiebert, Judith Marie Undine 30 October 2024 (has links)
In this contribution, a methodology for particle tracing based on computed tomography and digital image processing is presented. It enables the tracing of particles in opaque structures using laboratory X-ray microcomputed tomography (μCT) systems that are not capable of time-resolved particle tracking. Through the development, it becomes apparent that an X-ray source with a cone beam geometry and the ability to perform fast, dynamic scans is a prerequisite for generating parabolic motion artefacts. Moreover, experimental tests are used to acquire data from simple particle sedimentations as well as from self-developed filter structures based on deep bed filtration. These experiments confirm that the particle position is located at the apex of the motion artefacts. Following the data assessment, multiple options for the particle coordinate extraction are discussed, and strategies thoroughly examined. A combination of random sample consensus (RANSAC) and the least squares method proves to be the most useful for determining the particle position. Besides, the developed methodology is validated using artificially generated data in which the motion artefact parameters of size, spatial orientation, and curvature, as well as noise, are varied. Supplementary, data is analysed manually in order to draw a comparison. In addition, to the presentation and discussion of the application of the methodology, a comparison with an artificial neural network (ANN) and the advantages and disadvantages of both methods are discussed. Finally, a first comparison of an extracted particle trace with a flow simulation through the complex structure is carried out, which shows that the particle trace follows the flow.:Table of Contents
List of Figures ............................................................................................................................. i
List of Tables ............................................................................................................................. vi
List of Formula Symbols ......................................................................................................... vii
List of Abbreviations ................................................................................................................. x
1 Introduction ....................................................................................................................... 1
2 Fundamentals .................................................................................................................... 5
2.1 Methods for Particle Tracking and Tracing .............................................................. 5
2.2 Computed Tomography .......................................................................................... 10
2.2.1 Tomography Design and Functional Principle ................................................ 10
2.2.2 Data Reconstruction ......................................................................................... 15
2.3 Digital Image Processing .......................................................................................... 18
3 Material............................................................................................................................. 30
3.1 Laboratory X-ray Tomography System TomoTU ................................................... 30
3.2 Experimental Setup .................................................................................................. 33
3.3 Choice of Particles and Medium ............................................................................. 34
4 Method development ...................................................................................................... 36
4.1 Characterisation of the Motion Artefacts ............................................................... 38
4.2 Method Consideration ............................................................................................. 45
4.3 Pre-processing .......................................................................................................... 46
4.4 Combination of Random Sample Consensus and Least Squares Method.......... 48
4.5 Multiple Particle Tracing .......................................................................................... 51
4.6 Coordinate Processing ............................................................................................. 53
4.7 Method Validation .................................................................................................... 53
5 Results and Discussion .................................................................................................... 59
5.1 Evaluation experimental data ................................................................................. 59
5.2 Comparison with Computational Fluid Dynamics (CFD) ....................................... 68
5.3 Comparison of Artificial Neural Networks with the Developed Classical Digital Image Processing Approach ............................................................................................... 70
6 Summary, Conclusion and Outlook ............................................................................... 74
7 References ........................................................................................................................ 76 / Die vorliegende Arbeit stellt eine auf Computertomografie und digitaler Bildverarbeitung basierte Methodik für die Partikelverfolgung dar. Diese ermöglicht es, mittels Labor- Microcomputertomografie (μCT) Anlagen, welche nicht dazu in der Lage sind, zeitaufgelöste Partikelverfolgung zu realisieren, Partikel in opaken Strukturen zu verfolgen. Durch die Methodenentwicklung ergibt sich, dass eine Röntgenquelle mit Kegelstrahlgeometrie sowie die Durchführungsmöglichkeit von schnellen, dynamischen Scans Voraussetzungen sind, um parabelförmige Bewegungsartefakte zu erzeugen. Dafür werden durch experimentelle Untersuchungen Daten erzeugt, die sowohl von einfachen Partikelsedimentationen als auch von eigens entwickelten Filterstrukturen, die sich an der Tiefenfiltration orientieren, abgeleitet werden. Diese Experimente bestätigen, dass sich die Partikelposition am Scheitelpunkt der Bewegungsartefakte befindet. Auf Grundlage der ersten Messungen werden verschiedene Möglichkeiten für die Partikelkoordinatenbestimmung diskutiert und Ansätze kritisch betrachtet. Dabei hat sich eine Kombination aus dem Random Sample Consensus (RANSAC) Algorithmus und der Methode der kleinsten Quadrate als am sinnvollsten für die Bestimmung der Partikelposition ergeben. Zudem wird die entwickelte Methodik anhand von künstlich erzeugten Daten validiert, bei welchen die Bewegungsartefakt-Parameter Größe, Raumorientierung und Krümmung sowie Rauschen variiert werden. Zusätzlich werden auch Daten manuell ausgewertet, um einen Vergleich ziehen zu können. Neben der Präsentation und Diskussion der Anwendung der Methodik wird außerdem ein Vergleich zu künstlichen neuronalen Netzen (KNNs) und die Vor- und Nachteile beider Methoden diskutiert. Abschließend wird ein erster Vergleich einer extrahierten Partikelspur mit einer Strömungssimulation durch die komplexe Struktur durchgeführt, welche zeigt, dass die Partikelspur der Strömung folgt.:Table of Contents
List of Figures ............................................................................................................................. i
List of Tables ............................................................................................................................. vi
List of Formula Symbols ......................................................................................................... vii
List of Abbreviations ................................................................................................................. x
1 Introduction ....................................................................................................................... 1
2 Fundamentals .................................................................................................................... 5
2.1 Methods for Particle Tracking and Tracing .............................................................. 5
2.2 Computed Tomography .......................................................................................... 10
2.2.1 Tomography Design and Functional Principle ................................................ 10
2.2.2 Data Reconstruction ......................................................................................... 15
2.3 Digital Image Processing .......................................................................................... 18
3 Material............................................................................................................................. 30
3.1 Laboratory X-ray Tomography System TomoTU ................................................... 30
3.2 Experimental Setup .................................................................................................. 33
3.3 Choice of Particles and Medium ............................................................................. 34
4 Method development ...................................................................................................... 36
4.1 Characterisation of the Motion Artefacts ............................................................... 38
4.2 Method Consideration ............................................................................................. 45
4.3 Pre-processing .......................................................................................................... 46
4.4 Combination of Random Sample Consensus and Least Squares Method.......... 48
4.5 Multiple Particle Tracing .......................................................................................... 51
4.6 Coordinate Processing ............................................................................................. 53
4.7 Method Validation .................................................................................................... 53
5 Results and Discussion .................................................................................................... 59
5.1 Evaluation experimental data ................................................................................. 59
5.2 Comparison with Computational Fluid Dynamics (CFD) ....................................... 68
5.3 Comparison of Artificial Neural Networks with the Developed Classical Digital Image Processing Approach ............................................................................................... 70
6 Summary, Conclusion and Outlook ............................................................................... 74
7 References ........................................................................................................................ 76
|
Page generated in 0.1069 seconds