• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 31
  • 9
  • 1
  • Tagged with
  • 82
  • 56
  • 41
  • 40
  • 30
  • 29
  • 29
  • 13
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Method development in automated mineralogy

Sandmann, Dirk 11 November 2015 (has links) (PDF)
The underlying research that resulted in this doctoral dissertation was performed at the Division of Economic Geology and Petrology of the Department of Mineralogy, TU Bergakademie Freiberg between 2011 and 2014. It was the primary aim of this thesis to develop and test novel applications for the technology of ‘Automated Mineralogy’ in the field of economic geology and geometallurgy. A “Mineral Liberation Analyser” (MLA) instrument of FEI Company was used to conduct most analytical studies. This automated system is an image analysis system based on scanning electron microscopy (SEM) image acquisition and energy dispersive X-ray spectrometry which can be used to determine both quantitative mineralogical data and mineral processing-relevant parameters. The analyses can be conducted with unconsolidated and solid rocks but also with ores and products of the mineral processing and recycling industry. In consequence of a first-time broadly-based and comprehensive literature review of more than 1,700 publications related to all types of automated SEM-based image analysis systems several trends in the publication chronicle were observed. Publications related to mineral processing lead the field of automated mineralogy-related publications. However, this is with a somewhat smaller proportion than expected and with a significant decrease in share between around 2000 and 2014. The latter is caused by a gradual but continuous introduction of new areas of application for automated mineralogical analysis such as the petroleum industry, petrology or environmental sciences. Furthermore, the quantity of automated mineralogy systems over time was carefully assessed. It is shown that the market developed from many individual developments in the 1970s and 1980s, often conducted from research institutes, e.g., CSIRO and JKMRC, or universities, to a duopoly - Intellection Pty Ltd and JKTech MLA - in the 1990s and 2000s and finally to a monopoly by FEI Company since 2009. However, the number of FEI’s competitors, such as Zeiss, TESCAN, Oxford Instruments, and Robertson CGG, and their competing systems are increasing since 2011. Particular focus of this study, published in three research articles in peer-reviewed international journals, was the development of suitable methodological approaches to deploy MLA to new materials and in new contexts. Data generated are then compared with data obtained by established analytical techniques to enable critical assessment and validation of the methods developed. These include both quantitative mineralogical analysis as well as methods of particle characterisation. The first scientific paper “Use of Mineral Liberation Analysis (MLA) in the Characterization of Lithium-Bearing Micas” deals with the field of mineral processing and describes the characterisation of lithium-bearing zinnwaldite mica - as potential natural resource for lithium - by MLA as well as the achievement of mineralogical association data for zinnwaldite and associated minerals. Two different approaches were studied to comminute the samples for this work, conventional comminution by crusher as well as high-voltage pulse selective fragmentation. By this study it is shown that the MLA can provide mineral data of high quality from silicate mineral resources and results very comparable to established analytical methods. Furthermore, MLA yields additional relevant information - such as particle and grain sizes as well as liberation and grade-recovery data. This combination of quantitative data cannot be attained with any other single analytical method. The second article “Characterisation of graphite by automated mineral liberation analysis” is also located in the field of mineral processing. This research article is the first published contribution on the characterisation of graphite, an important industrial mineral, by MLA respectively an automated mineralogy-related analytical method. During this study graphite feeds and concentrates were analysed. By this study it is shown that it is possible to gather statistically relevant data of graphite samples by MLA. Furthermore, the MLA results are validated by quantitative X-ray powder diffraction as well as particle size determinations by laser diffraction and sieve analysis. The third research paper “Nature and distribution of PGE mineralisation in gabbroic rocks of the Lusatian Block, Saxony, Germany” deals with the scientific field of geoscience. In this study it is shown that it is possible to obtain a significant body of novel mineralogical information by applying MLA analysis in a region previously regarded as being well-studied. The complex nature and relatively large distribution of the occurring platinum group minerals (PGM) is well illustrated by this contribution. During previous light microscopic studies and infrequent electron microprobe measurements only a handful isolated PGM grains were identified and characterised. In this investigation, using the samples of previous studies, 7 groups of PGM and 6 groups of associated tellurides as well as in total more than 1,300 mineral grains of both mineral groups were identified. Based on the data obtained, important insight regarding mineral associations, mineral paragenesis and the potential genesis of the PGM is obtained. Within this context, the value of MLA studies for petrological research focused on trace minerals is documented. MLA yields results that are both comprehensive and unbiased, thus permitting novel insight into the distribution and characteristics of trace minerals. This, in turn, is immensely useful when developing new concepts on the genesis of trace minerals, but may also give rise to the development of a novel generation of exploration tools, i.e., mineralogical vectors towards exploration akin to currently used geochemical vectors. The present dissertation shows that automated mineralogy by using a Mineral Liberation Analyser is able to deliver a unique combination of quantitative data on mineralogy and several physical attributes that are relevant for ore geology and mineral processing alike. It is in particular the automation and unbiasedness of data, as well as the availability of textural data, size and shape information for particles and mineral grains, as well as mineral association and mineral liberation data that define major advantages of MLA analyses - compared to other analytical methods. Despite the fact that results are obtained only on 2-D polished surfaces, quantitative results obtained compare well/very well to results obtained by other analytical methods. This is attributed mainly due to the fact that a very large and statistically sound number of mineral grains/particles are analysed. Similar advantages are documented when using the MLA as an efficient tool to search for and characterise trace minerals of petrological or economic significance. / Die Forschung die der vorliegenden kumulativen Dissertation (‚Publikationsdissertation‘) zugrunde liegt wurde im Zeitraum 2011-2014 am Lehrstuhl für Lagerstättenlehre und Petrologie des Institutes für Mineralogie der TU Bergakademie Freiberg durchgeführt. Das primäre Ziel dieser Arbeit war es neue Einsatzmöglichkeiten für die Technik der Automatisierten Mineralogie im Gebiet der Lagerstättenkunde und Geometallurgie zu entwickeln und zu testen. Im Mittelpunkt der wissenschaftlichen Studien stand die analytische Nutzung des Großgerätes „Mineral Liberation Analyser“ (MLA) der Firma FEI Company. Dieses automatisierte System ist ein Bildanalysesystem und basiert auf der Erfassung von Rasterelektronenmikroskopiebildern und energiedispersiver Röntgen-spektroskopie. Mit Hilfe der MLA-Analysetechnik lassen sich sowohl statistisch gesichert quantitative mineralogisch relevante als auch Aufbereitungsprozess-relevante Parameter ermitteln. Die Analysen können sowohl an Locker- und Festgesteinen als auch an Erzen und Produkten der Aufbereitungs- und Recyclingindustrie durchgeführt werden. Infolge einer erstmaligen, breit angelegten und umfassenden Literaturrecherche von mehr als 1.700 Publikationen im Zusammenhang mit allen Arten von automatisierten REM-basierten Bildanalysesystemen konnten verschiedene Trends in der Publikations¬historie beobachtet werden. Publikationen mit Bezug auf die Aufbereitung mineralischer Rohstoffe führen das Gebiet der Automatisierte Mineralogie-bezogenen Publikationen an. Der Anteil der Aufbereitungs-bezogenen Publikationen an der Gesamtheit der relevanten Publikationen ist jedoch geringer als erwartet und zeigt eine signifikante Abnahme des prozentualen Anteils zwischen den Jahren 2000 und 2014. Letzteres wird durch eine kontinuierliche Einführung neuer Anwendungsbereiche für die automatisierte mineralogische Analyse, wie zum Beispiel in der Öl- und Gasindustrie, der Petrologie sowie den Umweltwissenschaften verursacht. Weiterhin wurde die Anzahl der Systeme der Automatisierten Mineralogie über die Zeit sorgfältig bewertet. Es wird gezeigt, dass sich der Markt von vielen einzelnen Entwicklungen in den 1970er und 1980er Jahren, die oft von Forschungsinstituten, wie z. B. CSIRO und JKMRC, oder Universitäten ausgeführt wurden, zu einem Duopol - Intellection Pty Ltd und JKTech MLA - in den 1990er und 2000er Jahren und schließlich seit 2009 zu einem Monopol der FEI Company entwickelte. Allerdings steigt die Anzahl der FEI-Konkurrenten, wie Zeiss, TESCAN, Oxford Instruments und Robertson CGG, und deren Konkurrenzsysteme seit 2011. Ein Schwerpunkt der drei von Experten begutachteten und in internationalen Fachzeitschriften publizierten Artikel dieser Studie war die Entwicklung eines geeigneten methodischen Ansatzes um die MLA-Technik für neue Materialien und in neuem Kontext zu verwenden. Die erzeugten Daten wurden mit Daten die von etablierten analytischen Techniken gewonnen wurden verglichen, um eine kritische Bewertung und Validierung der entwickelten Methoden zu ermöglichen. Dazu gehören sowohl quantitative mineralogische Analysen als auch Methoden der Partikelcharakterisierung. Der Schwerpunkt der Studie zum ersten Fachartikel „Use of Mineral Liberation Analysis (MLA) in the Characterization of Lithium-Bearing Micas“ liegt im Gebiet der Aufbereitung mineralischer Rohstoffe. Er beschreibt die Charakterisierung von Zinnwaldit-Glimmer - einem potentiellen Lithium-Rohstoff - durch die MLA-Technik sowie das Erringen von Mineralverwachsungsdaten für Zinnwaldit und assoziierter Minerale. Dabei wurden zwei unterschiedliche Wege der Probenzerkleinerung des Rohstoffes untersucht. Zum einen erfolgte eine konventionelle Zerkleinerung der Proben mittels Brecher und Mühle, zum anderen eine selektive Zerkleinerung durch Hoch¬spannungsimpulse. Es konnte aufgezeigt werden, dass die automatisierte Rasterelektronen¬mikroskopie-basierte Bildanalyse mittels MLA von silikatischen Rohstoffen Mineral¬informationen von hoher Güte zur Verfügung stellen kann und die Ergebnisse gut vergleichbar mit etablierten analytischen Methoden sind. Zusätzlich liefert die MLA weitere wertvolle Informationen wie zum Beispiel Partikel-/Mineralkorngrößen, Aussagen zum Mineralfreisetzungsgrad sowie Gehalt-Ausbring-Kurven des Wertstoffes. Diese Kombination von quantitativen Daten kann mit keiner anderen analytischen Einzelmethode erreicht werden. Der zweite Fachartikel „Characterisation of graphite by automated mineral liberation analysis“ ist ebenfalls im Fachgebiet der Aufbereitung mineralischer Rohstoffe angesiedelt. Während dieser Studie wurden Edukte und Produkte der Aufbereitung von Graphit-Erzen untersucht. Der vorliegende Artikel ist der erste in einer internationalen Fachzeitschrift publizierte Beitrag zur Charakterisierung des Industrieminerals Graphit mittels MLA-Technik bzw. einer Analysenmethode der Automatisierten Mineralogie. Mit der Studie konnte gezeigt werden, dass es möglich ist, auch mit der MLA statistisch relevante Daten von Graphitproben zu erfassen. Darüber hinaus wurden die Ergebnisse der MLA-Analysen durch quantitative Röntgenpulverdiffraktometrie sowie Partikelgrößen-bestimmungen durch Laserbeugung und Siebanalyse validiert. Der dritte Fachartikel „Nature and distribution of PGE mineralisation in gabbroic rocks of the Lusatian Block, Saxony, Germany“ ist im Gegensatz zu den ersten beiden Artikeln im Gebiet der Geowissenschaften angesiedelt. In dieser Studie wird gezeigt, dass es möglich ist mittels MLA-Analyse eine signifikante Anzahl neuer Daten von einem eigentlich schon gut untersuchten Arbeitsgebiet zu gewinnen. So konnte erst mit der MLA die komplexe Natur und relativ große Verbreitung der auftretenden Platingruppenelement-führenden Minerale (PGM) geklärt werden. Während früherer lichtmikroskopischer Analysen und einzelner Elektronenstrahlmikrosonden-Messungen konnten nur eine Handvoll weniger, isolierter PGM-Körner nachgewiesen und halbquantitativ charakterisiert werden. In der vorliegenden Studie konnten nun, an den von früheren Studien übernommenen Proben, 7 PGM-Gruppen und 6 assoziierte Telluridmineral-Gruppen mit insgesamt mehr als 1.300 Mineralkörnern beider Mineralgruppen nachgewiesen werden. Auf der Grundlage der gewonnenen Daten wurden wichtige Erkenntnisse in Bezug auf Mineralassoziationen, Mineralparagenese und zur möglichen Genese der PGM erreicht. In diesem Zusammenhang wurde der Wert der MLA-Studien für petrologische Forschung mit dem Fokus auf Spurenminerale dokumentiert. Die MLA liefert Ergebnisse, die sowohl umfassend und unvoreingenommen sind, wodurch neue Einblicke in die Verteilung und Charakteristika der Spurenminerale erlaubt werden. Dies wiederum ist ungemein nützlich für die Entwicklung neuer Konzepte zur Genese von Spurenmineralen, kann aber auch zur Entwicklung einer neuen Generation von Explorationswerkzeugen führen, wie zum Beispiel mineralogische Vektoren zur Rohstofferkundung ähnlich wie derzeit verwendete geochemische Vektoren. Mit der vorliegenden Dissertationsschrift wird aufgezeigt, dass Automatisierte Mineralogie mittels Mineral Liberation Analyser eine einzigartige Kombination an quantitativen Daten zur Mineralogie und verschiedene physikalische Attribute, relevant sowohl für die Lagerstättenforschung als auch für die Aufbereitung mineralischer Rohstoffe, liefern kann. Im Vergleich zu anderen etablierten analytischen Methoden sind es insbesondere die Automatisierung und Unvoreingenommenheit der Daten sowie die Verfügbarkeit von Gefügedaten, Größen- und Forminformationen für Partikel und Mineralkörner, Daten zu Mineralassoziationen und Mineralfreisetzungen welche die großen Vorteile der MLA-Analysen definieren. Trotz der Tatsache, dass die Ergebnisse nur von polierten 2-D Oberflächen erhalten werden, lassen sich die quantitativen Ergebnisse gut/sehr gut mit Ergebnissen anderer Analysemethoden vergleichen. Dies kann vor allem der Tatsache zugeschrieben werden, dass eine sehr große und statistisch solide Anzahl von Mineralkörnern/Partikeln analysiert wird. Ähnliche Vorteile sind bei der Verwendung der MLA als effizientes Werkzeug für die Suche und Charakterisierung von Spurenmineralen von petrologischer oder wirtschaftlicher Bedeutung dokumentiert.
62

Charakterisierung, Modellierung und Optimierung der Barriereeigenschaften von OP-Textilien

Aibibu, Dilibaier 26 October 2006 (has links) (PDF)
Durch die systematischen und umfangreichen experimentellen Untersuchungen werden in dieser Arbeit erstmalig die Einflüsse der textiltechnologischen Parameter des Garn- und Gewebebildungsprozesses auf die Porenstruktur und die davon abhängige Barrierewirkung von marktrelevanten OP-Geweben grundlegend analysiert. Daraus resultiert der Schwerpunkt der Arbeit – die Erarbeitung von Modellen – mit denen die Zusammenhänge zwischen strukturbedingten Einflussgrößen von Geweben und deren Barrierewirkung gegenüber kontaminierten Flüssigkeiten charakterisiert werden kann. Aufgrund des maßgeblichen Einflusses der Mikrostruktur auf das makroskopische Materialverhalten wird ein hierarchisches Strukturmodell eingeführt, welches zwischen der Makro-, Meso- und Mikroebene unterscheidet. Diese Strukturebenen erfassen die Gewebestruktur in unterschiedlichen Modellierungsniveaus. Die Systematisierungskriterien Garnfeinheit, Gewebebindung und Fadendichte beschreiben die Mesoebene. Die Filamentfeinheit und der Filamentquerschnitt sind wesentliche Kenngröße der Mikroebene. Das anhand des Darcy-Gesetzes entwickelte Modell für die Beschreibung der Mesoebene ist anschaulicher und beinhaltet den Einfluss der Bindung und der Formänderungen der Filamentgarne bei der Gewebeherstellung. Bei der Analyse der Porenstruktur werden mit Hilfe der optischen Methode – Bildanalyse – systematische Untersuchungen an der Morphologie des Gewebes durchgeführt, die bisher noch nicht realisierbar waren. Hier besteht die Möglichkeit, in das Gewebeinnere „hineinzusehen“ und sich nicht nur auf die funktionalen Parameter zu beschränken. Um die Transportmechanismen von Mikroorganismen unter praxisrelevanten Bedingungen zu simulieren, wird ein Verfahren entwickelt. Die Entwicklung erstreckt sich auf die Simulation des Drucks und der Reibung sowie die Simulation der im OP-Saal vorhandenen Flüssigkeiten mit synthetischem Blut und mit Mikrokugeln kontaminiertem Wasser. Das Verfahren ergänzt die optischen Untersuchungen und trägt zur Interpretation bei. Die qualitativen mikroskopischen Untersuchungen durch die Betrachtung der Gewebeoberfläche und -querschnitte unterstützen die Lokalisierung der Partikel im und auf dem Gewebe. Sie liefern interessante Aussagen und Informationen über die Durchgangsmechanismen von partikelbeladenen Flüssigkeiten durch das Gewebe. Der experimentelle Teil befasst sich mit der kritischen Auswahl und Charakterisierung repräsentativer OP-Textilien. Die wissenschaftlichen Fragestellungen werden an 6 repräsentativen PES-Filamentgeweben von 23 marktrelevanten PES-Filamentgeweben für OP-Textilien untersucht und beantwortet. Diese werden hinsichtlich des Einflusses der textiltechnologischen Parameter – Filamentfeinheit, -querschnitt, und Filamentgarnfeinheit sowie der webtechnischen Parameter – auf die strukturbedingte Barrierewirkung anhand der entwickelten Modelle und des Penetrationsversuches evaluiert. Auf diesen Ergebnissen aufbauend werden die Ansätze für die Optimierung der Gewebestruktur hinsichtlich der Barrierewirkung erstellt. Durch die Kombination von feinen Garnen mit hoher Fadendichte unter Ausnutzung von technologischen Möglichkeiten werden Mustergewebe aus PES-Mikrofilamentgarnen mit hoher Barrierewirkung hergestellt. Die experimentelle Untersuchung der am Institut für Textil- und Bekleidungstechnik entwickelten Mustergewebe und die theoretischen Modellrechnungen bestätigen das vorhandene textiltechnische Potenzial zur Optimierung von Mikrofilamentgeweben, d. h., einer weiteren Erhöhung der Widerstandsfähigkeit gegenüber partikelbeladenen Flüssigkeiten. Die Porenweiten in der Mesoebene können wirkungsvoll durch den Einsatz von feinen Filamentgarnen und das Erreichen der hohen Fadendichten in beiden Fadensystemen um die 50 % reduziert werden. Im Vergleich zu marktrelevanten OP-Geweben weisen die Mustergewebe eine erheblich hohe Barrierewirkung gegenüber synthetischem Blut und mit Mikrokugeln kontaminiertem Wasser auf. Diese Arbeit zur grundlegenden Analyse der strukturbedingten Barriereeigenschaften bietet Grundlagen für künftig notwendige Entscheidungen in der Produktentwicklung, Produktion, Produktnormung sowie Produktevaluierung. Sie kann in unterschiedliche Richtung fortgesetzt werden und die Optimierung flüssigkeits- und partikeldichter Gewebe im Gesundheitswesen, Reinraumtechnik im Speziellen oder von Schutztextilien im Allgemeinen, aber auch die Konkretisierung und Übertragung der Modellansätze betreffen.
63

Automatisierte Baublockabgrenzung in Topographischen Karten

Muhs, Sebastian, Meinel, Gotthard, Burghardt, Dirk, Herold, Hendrik 13 February 2015 (has links) (PDF)
Der Bestand an analysierbaren, digitalen Daten vergangener Zeitstände zur Siedungsflächenausdehnung, die für eine kleinräumige Analyse der Siedlungsdynamik notwendig sind, steht in einem klaren Widerspruch zu seiner Nachfrage. Topographische Karten im Maßstab 1:25 000 enthalten implizit Grundrissinformationen zu den Elementarobjekten der Siedlungsstruktur – Baublock, Straße und Gebäude – und stellen dafür eine geeignete Datenquelle dar. Das hier vorgestellte automatisierte Verfahren zeigt, wie diese Information für Baublöcke mittels Methoden der digitalen Bildanalyse explizit verfügbar gemacht werden kann.
64

An Evolutionary Approach to Adaptive Image Analysis for Retrieving and Long-term Monitoring Historical Land Use from Spatiotemporally Heterogeneous Map Sources

Herold, Hendrik 31 March 2016 (has links) (PDF)
Land use changes have become a major contributor to the anthropogenic global change. The ongoing dispersion and concentration of the human species, being at their orders unprecedented, have indisputably altered Earth’s surface and atmosphere. The effects are so salient and irreversible that a new geological epoch, following the interglacial Holocene, has been announced: the Anthropocene. While its onset is by some scholars dated back to the Neolithic revolution, it is commonly referred to the late 18th century. The rapid development since the industrial revolution and its implications gave rise to an increasing awareness of the extensive anthropogenic land change and led to an urgent need for sustainable strategies for land use and land management. By preserving of landscape and settlement patterns at discrete points in time, archival geospatial data sources such as remote sensing imagery and historical geotopographic maps, in particular, could give evidence of the dynamic land use change during this crucial period. In this context, this thesis set out to explore the potentials of retrospective geoinformation for monitoring, communicating, modeling and eventually understanding the complex and gradually evolving processes of land cover and land use change. Currently, large amounts of geospatial data sources such as archival maps are being worldwide made online accessible by libraries and national mapping agencies. Despite their abundance and relevance, the usage of historical land use and land cover information in research is still often hindered by the laborious visual interpretation, limiting the temporal and spatial coverage of studies. Thus, the core of the thesis is dedicated to the computational acquisition of geoinformation from archival map sources by means of digital image analysis. Based on a comprehensive review of literature as well as the data and proposed algorithms, two major challenges for long-term retrospective information acquisition and change detection were identified: first, the diversity of geographical entity representations over space and time, and second, the uncertainty inherent to both the data source itself and its utilization for land change detection. To address the former challenge, image segmentation is considered a global non-linear optimization problem. The segmentation methods and parameters are adjusted using a metaheuristic, evolutionary approach. For preserving adaptability in high level image analysis, a hybrid model- and data-driven strategy, combining a knowledge-based and a neural net classifier, is recommended. To address the second challenge, a probabilistic object- and field-based change detection approach for modeling the positional, thematic, and temporal uncertainty adherent to both data and processing, is developed. Experimental results indicate the suitability of the methodology in support of land change monitoring. In conclusion, potentials of application and directions for further research are given.
65

Rezeptionsästhetische Literaturdidaktik im DaF-Unterricht. Das Bilderbuch als Anlass für Unterrichtsgespräche über das Thema: Der Umgang mit dem Fremden : Antje Damm, Der Besuch. Bild-/Textanalyse und literaturdidaktische Vorschläge

Ferreira Cunha, Cristina J. January 2019 (has links)
While subject-specific research shows that the use of picturebooks in foreign language lessons is beneficial to the acquisition of a foreign language as well as to the development of visual literacy, there is evidence that the use of picturebooks in German as a Foreign Language lessons in Sweden is being neglected. The main subject of this thesis is to offer suggestions as to how Antje Damm´s picturebook Der Besuch can be employed in German as a Foreign Language lessons in Sweden in order to uncover and discuss different responses to the alien by the main character. The philosophical background of this study is based on Bernhard Waldenfels´ notions of alienness and the event of responsivity. A central line of argument is that the plural character of our experiences determines how the alien is perceived. Bettina Schröder´s work Bild(er)leser wissen mehr! Das Bil-derbuch als Vermittler von “Visual Literacy”: Eine Aufgabe für die Kinder- und Jugendbibliotheksarbeit? is not only decisive for the analysis of the visual elements of the picturebook but also for the design of a questionnaire that enables the thematic exploration of Damm´s picturebook during German as a Foreign Language lessons. By separately analysing the visual and the verbal elements of the picturebook as well as their relationship, the result of the first part of this work points out four approaches to the alien by the main character: isolation, elimination, ignoration (Weghören) and hospitality. Furthermore, the thematic analysis of Der Besuch makes it evident that picture and text tell the same story in their own specific and autonomous way. Based on the results of the first part, the findings of the second part suggest a guideline as how Damm´s picturebook can be used in German as a Foreign Language lessons. A three-phased model presents a set of example questions designed to enable the meticulous exploration of the theme when working with the picturebook.
66

An Evolutionary Approach to Adaptive Image Analysis for Retrieving and Long-term Monitoring Historical Land Use from Spatiotemporally Heterogeneous Map Sources

Herold, Hendrik 23 March 2015 (has links)
Land use changes have become a major contributor to the anthropogenic global change. The ongoing dispersion and concentration of the human species, being at their orders unprecedented, have indisputably altered Earth’s surface and atmosphere. The effects are so salient and irreversible that a new geological epoch, following the interglacial Holocene, has been announced: the Anthropocene. While its onset is by some scholars dated back to the Neolithic revolution, it is commonly referred to the late 18th century. The rapid development since the industrial revolution and its implications gave rise to an increasing awareness of the extensive anthropogenic land change and led to an urgent need for sustainable strategies for land use and land management. By preserving of landscape and settlement patterns at discrete points in time, archival geospatial data sources such as remote sensing imagery and historical geotopographic maps, in particular, could give evidence of the dynamic land use change during this crucial period. In this context, this thesis set out to explore the potentials of retrospective geoinformation for monitoring, communicating, modeling and eventually understanding the complex and gradually evolving processes of land cover and land use change. Currently, large amounts of geospatial data sources such as archival maps are being worldwide made online accessible by libraries and national mapping agencies. Despite their abundance and relevance, the usage of historical land use and land cover information in research is still often hindered by the laborious visual interpretation, limiting the temporal and spatial coverage of studies. Thus, the core of the thesis is dedicated to the computational acquisition of geoinformation from archival map sources by means of digital image analysis. Based on a comprehensive review of literature as well as the data and proposed algorithms, two major challenges for long-term retrospective information acquisition and change detection were identified: first, the diversity of geographical entity representations over space and time, and second, the uncertainty inherent to both the data source itself and its utilization for land change detection. To address the former challenge, image segmentation is considered a global non-linear optimization problem. The segmentation methods and parameters are adjusted using a metaheuristic, evolutionary approach. For preserving adaptability in high level image analysis, a hybrid model- and data-driven strategy, combining a knowledge-based and a neural net classifier, is recommended. To address the second challenge, a probabilistic object- and field-based change detection approach for modeling the positional, thematic, and temporal uncertainty adherent to both data and processing, is developed. Experimental results indicate the suitability of the methodology in support of land change monitoring. In conclusion, potentials of application and directions for further research are given.
67

Charakterisierung, Modellierung und Optimierung der Barriereeigenschaften von OP-Textilien

Aibibu, Dilibaier 02 November 2005 (has links)
Durch die systematischen und umfangreichen experimentellen Untersuchungen werden in dieser Arbeit erstmalig die Einflüsse der textiltechnologischen Parameter des Garn- und Gewebebildungsprozesses auf die Porenstruktur und die davon abhängige Barrierewirkung von marktrelevanten OP-Geweben grundlegend analysiert. Daraus resultiert der Schwerpunkt der Arbeit – die Erarbeitung von Modellen – mit denen die Zusammenhänge zwischen strukturbedingten Einflussgrößen von Geweben und deren Barrierewirkung gegenüber kontaminierten Flüssigkeiten charakterisiert werden kann. Aufgrund des maßgeblichen Einflusses der Mikrostruktur auf das makroskopische Materialverhalten wird ein hierarchisches Strukturmodell eingeführt, welches zwischen der Makro-, Meso- und Mikroebene unterscheidet. Diese Strukturebenen erfassen die Gewebestruktur in unterschiedlichen Modellierungsniveaus. Die Systematisierungskriterien Garnfeinheit, Gewebebindung und Fadendichte beschreiben die Mesoebene. Die Filamentfeinheit und der Filamentquerschnitt sind wesentliche Kenngröße der Mikroebene. Das anhand des Darcy-Gesetzes entwickelte Modell für die Beschreibung der Mesoebene ist anschaulicher und beinhaltet den Einfluss der Bindung und der Formänderungen der Filamentgarne bei der Gewebeherstellung. Bei der Analyse der Porenstruktur werden mit Hilfe der optischen Methode – Bildanalyse – systematische Untersuchungen an der Morphologie des Gewebes durchgeführt, die bisher noch nicht realisierbar waren. Hier besteht die Möglichkeit, in das Gewebeinnere „hineinzusehen“ und sich nicht nur auf die funktionalen Parameter zu beschränken. Um die Transportmechanismen von Mikroorganismen unter praxisrelevanten Bedingungen zu simulieren, wird ein Verfahren entwickelt. Die Entwicklung erstreckt sich auf die Simulation des Drucks und der Reibung sowie die Simulation der im OP-Saal vorhandenen Flüssigkeiten mit synthetischem Blut und mit Mikrokugeln kontaminiertem Wasser. Das Verfahren ergänzt die optischen Untersuchungen und trägt zur Interpretation bei. Die qualitativen mikroskopischen Untersuchungen durch die Betrachtung der Gewebeoberfläche und -querschnitte unterstützen die Lokalisierung der Partikel im und auf dem Gewebe. Sie liefern interessante Aussagen und Informationen über die Durchgangsmechanismen von partikelbeladenen Flüssigkeiten durch das Gewebe. Der experimentelle Teil befasst sich mit der kritischen Auswahl und Charakterisierung repräsentativer OP-Textilien. Die wissenschaftlichen Fragestellungen werden an 6 repräsentativen PES-Filamentgeweben von 23 marktrelevanten PES-Filamentgeweben für OP-Textilien untersucht und beantwortet. Diese werden hinsichtlich des Einflusses der textiltechnologischen Parameter – Filamentfeinheit, -querschnitt, und Filamentgarnfeinheit sowie der webtechnischen Parameter – auf die strukturbedingte Barrierewirkung anhand der entwickelten Modelle und des Penetrationsversuches evaluiert. Auf diesen Ergebnissen aufbauend werden die Ansätze für die Optimierung der Gewebestruktur hinsichtlich der Barrierewirkung erstellt. Durch die Kombination von feinen Garnen mit hoher Fadendichte unter Ausnutzung von technologischen Möglichkeiten werden Mustergewebe aus PES-Mikrofilamentgarnen mit hoher Barrierewirkung hergestellt. Die experimentelle Untersuchung der am Institut für Textil- und Bekleidungstechnik entwickelten Mustergewebe und die theoretischen Modellrechnungen bestätigen das vorhandene textiltechnische Potenzial zur Optimierung von Mikrofilamentgeweben, d. h., einer weiteren Erhöhung der Widerstandsfähigkeit gegenüber partikelbeladenen Flüssigkeiten. Die Porenweiten in der Mesoebene können wirkungsvoll durch den Einsatz von feinen Filamentgarnen und das Erreichen der hohen Fadendichten in beiden Fadensystemen um die 50 % reduziert werden. Im Vergleich zu marktrelevanten OP-Geweben weisen die Mustergewebe eine erheblich hohe Barrierewirkung gegenüber synthetischem Blut und mit Mikrokugeln kontaminiertem Wasser auf. Diese Arbeit zur grundlegenden Analyse der strukturbedingten Barriereeigenschaften bietet Grundlagen für künftig notwendige Entscheidungen in der Produktentwicklung, Produktion, Produktnormung sowie Produktevaluierung. Sie kann in unterschiedliche Richtung fortgesetzt werden und die Optimierung flüssigkeits- und partikeldichter Gewebe im Gesundheitswesen, Reinraumtechnik im Speziellen oder von Schutztextilien im Allgemeinen, aber auch die Konkretisierung und Übertragung der Modellansätze betreffen.
68

Toward a comprehensive interpretation of intravital microscopy images in studies of lung tissue dynamics

Gaertner, Maria, Schirrmann, Kerstin, Schnabel, Christian, Meissner, Sven, Kertzscher, Ulrich, Kirsten, Lars, Koch, Edmund 09 September 2019 (has links)
Intravital microscopy (IVM) is a well-established imaging technique for real-time monitoring of microscale lung tissue dynamics. Although accepted as a gold standard in respiratory research, its characteristic image features are scarcely understood, especially when trying to determine the actual position of alveolar walls. To allow correct interpretation of these images with respect to the true geometry of the lung parenchyma, we analyzed IVM data of alveoli in a mouse model in comparison with simultaneously acquired optical coherence tomography images. Several IVM characteristics, such as double ring structures or disappearing alveoli in regions of liquid filling, could be identified and related to the position of alveoli relative to each other. Utilizing a ray tracing approach based on an idealized geometry of the mouse lung parenchyma, two major reflection processes could be attributed to the IVM image formation: partial reflection and total internal reflection between adjacent alveoli. Considering the origin of the reflexes, a model was developed to determine the true position of alveolar walls within IVM images. These results allow thorough understanding of IVM data and may serve as a basis for the correction of alveolar sizes for more accurate quantitative analysis within future studies of lung tissue dynamics.
69

Die »ideale Vergegenwärtigung« der Vergangenheit: Die Wandgemälde der Albrechtsburg im Vergleich mit den Nibelungenfresken der Münchner Residenz

Karge, Annegret 03 February 2020 (has links)
Der Beitrag beschreibt die Intention Wilhelm Roßmanns für die historistische Ausmalung der Albrechtsburg Meißen und deren malerische Umsetzung im Vergleich mit der Entstehung der Nibelungenfresken in der Münchner Residenz. Der versuchte historische genaue Zugriff der Meißner Maler wird dabei den klassisch ausgerichteten Bildern Schnorr von Carolsfelds in München gegenübergestellt.
70

Computer vision approaches for quantitative analysis of microscopy images

Bahry, Ella 23 November 2021 (has links)
Mikroskopaufnahmen kompletter Organismen und ihrer Entwicklung ermöglichen die Erforschung ganzer Organismen oder Systeme und erzeugen Datensätze im Terabyte-Bereich. Solche großen Datensätze erfordern die Entwicklung von Computer-Vision-Tools, um Aufgaben wie Erkennung, Segmentierung, Klassifizierung und Registrierung durchzuführen. Es ist wünschenswert, Computer-Vision-Tools zu entwickeln, die nur eine minimale Menge an manuell annotierten Trainingsdaten benötigen. Ich demonstriere derartige Anwendungen in drei Projekte. Zunächst stelle ich ein Tool zur automatischen Registrierung von Drosophila-Flügeln (verschiedener Spezies) unter Verwendung von Landmarkenerkennung vor, das für die Untersuchung der Funktionsweise von Enhancern eingesetzt wird. Ich vergleiche die Leistung eines Shape-Model-Ansatzes mit der eines kleinen neuronalen Netz bei der Verfügbarkeit von nur 20 Trainingsbeispiele. Beide Methoden schneiden gut ab und ermöglichen eine präzise Registrierung von Tausenden von Flügeln. Das zweite Projekt ist ein hochauflösendes Zellkernmodell des C. elegans, das aus einem nanometeraufgelösten Elektronenmikroskopiedatensatz einer ganzen Dauerlarve erstellt wird. Diese Arbeit ist der erste Atlas der Dauerdiapause von C. elegans, der jemals erstellt wurde, und enthüllt die Anzahl der Zellkerne in diesem Stadium. Schließlich stelle ich eine Bildanalysepipeline vor, an der ich zusammen mit Laura Breimann und anderen gearbeitet habe. Die Pipeline umfasst die Punkterkennung von Einzelmolekül-Fluoreszenz-In-situ-Hybridisierung (smFISH), die Segmentierung von Objekten und die Vorhersage des Embryonalstadiums. Mit diesen drei Beispielen demonstriere ich sowohl generische Ansätze zur computergestützten Modellierung von Modellorganismen als auch maßgeschneiderte Lösungen für spezifische Probleme und die Verschiebung des Feldes in Richtung Deep-Learning. / Microscopy images of entire organisms and their development allows research in whole organisms or systems, producing terabyte scale datasets. Such big datasets require the development of computer vision tools to perform tasks such as detection, segmentation, classification, and registration. It is desirable to develop computer vision tools that require minimal manually annotated training data. I demonstrate such applications in three projects. First, I present a tool for automatic Drosophila wing (of various species) registration using landmark detection, for its application in studying enhancer function. I compare the performance of a shape model technique to a small CNN requiring only 20 training examples. Both methods perform well, and enable precise registration of thousands of wings. The second project is a high resolution nucleus model of the C. elegans, constructed from a nanometer-resolved electron microscopy dataset of an entire dauer larva. The nucleus model is constructed using a classical dynamic programing approach as well as a CNN approach. The resulting model is accessible via a web-based (CATMAID) open source and open access resource for the community. I also developed a CATMAID plugin for the annotation of segmentation objects (here, nucleus identity). This work is the first atlas of the C. elegans dauer diapause ever created and unveils the number of nuclei at that stage. Lastly, I detail an image analysis pipeline I collaborated on with Laura Breimann and others. The pipeline involves single molecule fluorescence in situ hybridization (smFISH) spot detection, object segmentation, and embryo stage prediction. The pipeline is used to study the dynamics of X specific transcriptional repression by condensin in the C. elegans embryo. With these three examples, I demonstrate both generic approaches to computational modeling of model organisms, as well as bespoke solutions to specific problems, and the shift in the field towards deep learning.

Page generated in 0.0348 seconds