111 |
An Intelligent Semi-Automatic Workflow for Optical Character Recognition of Historical Printings / Ein intelligenter semi-automatischer Workflow für die OCR historischer DruckeReul, Christian January 2020 (has links) (PDF)
Optical Character Recognition (OCR) on historical printings is a challenging task mainly due to the complexity of the layout and the highly variant typography. Nevertheless, in the last few years great progress has been made in the area of historical OCR resulting in several powerful open-source tools for preprocessing, layout analysis and segmentation, Automatic Text Recognition (ATR) and postcorrection. Their major drawback is that they only offer limited applicability by non-technical users like humanist scholars, in particular when it comes to the combined use of several tools in a workflow. Furthermore, depending on the material, these tools are usually not able to fully automatically achieve sufficiently low error rates, let alone perfect results, creating a demand for an interactive postcorrection functionality which, however, is generally not incorporated.
This thesis addresses these issues by presenting an open-source OCR software called OCR4all which combines state-of-the-art OCR components and continuous model training into a comprehensive workflow. While a variety of materials can already be processed fully automatically, books with more complex layouts require manual intervention by the users. This is mostly due to the fact that the required Ground Truth (GT) for training stronger mixed models (for segmentation as well as text recognition) is not available, yet, neither in the desired quantity nor quality.
To deal with this issue in the short run, OCR4all offers better recognition capabilities in combination with a very comfortable Graphical User Interface (GUI) that allows error corrections not only in the final output, but already in early stages to minimize error propagation. In the long run this constant manual correction produces large quantities of valuable, high quality training material which can be used to improve fully automatic approaches. Further on, extensive configuration capabilities are provided to set the degree of automation of the workflow and to make adaptations to the carefully selected default parameters for specific printings, if necessary. The architecture of OCR4all allows for an easy integration (or substitution) of newly developed tools for its main components by supporting standardized interfaces like PageXML, thus aiming at continual higher automation for historical printings.
In addition to OCR4all, several methodical extensions in the form of accuracy improving techniques for training and recognition are presented. Most notably an effective, sophisticated, and adaptable voting methodology using a single ATR engine, a pretraining procedure, and an Active Learning (AL) component are proposed. Experiments showed that combining pretraining and voting significantly improves the effectiveness of book-specific training, reducing the obtained Character Error Rates (CERs) by more than 50%.
The proposed extensions were further evaluated during two real world case studies: First, the voting and pretraining techniques are transferred to the task of constructing so-called mixed models which are trained on a variety of different fonts. This was done by using 19th century Fraktur script as an example, resulting in a considerable improvement over a variety of existing open-source and commercial engines and models. Second, the extension from ATR on raw text to the adjacent topic of typography recognition was successfully addressed by thoroughly indexing a historical lexicon that heavily relies on different font types in order to encode its complex semantic structure.
During the main experiments on very complex early printed books even users with minimal or no experience were able to not only comfortably deal with the challenges presented by the complex layout, but also to recognize the text with manageable effort and great quality, achieving excellent CERs below 0.5%. Furthermore, the fully automated application on 19th century novels showed that OCR4all (average CER of 0.85%) can considerably outperform the commercial state-of-the-art tool ABBYY Finereader (5.3%) on moderate layouts if suitably pretrained mixed ATR models are available. / Die Optische Zeichenerkennung (Optical Character Recognition, OCR) auf historischen Drucken stellt nach wie vor eine große Herausforderung dar, hauptsächlich aufgrund des häufig komplexen Layouts und der hoch varianten Typographie. In den letzten Jahre gab es große Fortschritte im Bereich der historischen OCR, die nicht selten auch in Form von Open Source Tools interessierten Nutzenden frei zur Verfügung stehen. Der Nachteil dieser Tools ist, dass sie meist ausschließlich über die Kommandozeile bedient werden können und somit nicht-technische Nutzer schnell überfordern. Außerdem sind die Tools häufig nicht aufeinander abgestimmt und verfügen dementsprechend nicht über gemeinsame Schnittstellen.
Diese Arbeit adressiert diese Problematik mittels des Open Source Tools OCR4all, das verschiedene State-of-the-Art OCR Lösungen zu einem zusammenhängenden Workflow kombiniert und in einer einzigen Anwendung kapselt. Besonderer Wert liegt dabei darauf, auch nicht-technischen Nutzern zu erlauben, selbst die ältesten und anspruchsvollen Drucke selbstständig und mit höchster Qualität zu erfassen. OCR4all ist vollständig über eine komfortable graphische Nutzeroberfläche bedienbar und bietet umfangreiche Möglichkeiten hinsichtlich Konfiguration und interaktiver Nachkorrektur. Zusätzlich zu OCR4all werden mehrere methodische Erweiterungen präsentiert, um die Effektivität und Effizienz der Trainings- und Erkennungsprozesse zur Texterkennung zu optimieren.
Während umfangreicher Evaluationen konnte gezeigt werden, dass selbst Nutzer ohne nennenswerte Vorerfahrung in der Lage waren, OCR4all eigenständig auf komplexe historische Drucke anzuwenden und dort hervorragende Zeichenfehlerraten von durchschnittlich unter 0,5% zu erzielen. Die methodischen Verbesserungen mit Blick auf die Texterkennung reduzierten dabei die Fehlerrate um über 50% im Vergleich zum etablierten Standardansatz.
|
112 |
Aufbau und Implementierung eines Arbeitsablaufs zur Korrelation multimodaler in vivo und ex vivo retinaler Bildgebung mit histologischen Untersuchungen / Design and implementation of a workflow for correlating multimodal in vivo and ex vivo retinal imaging with histological examinationsGräfin von Moltke, Pia Maria January 2022 (has links) (PDF)
Die retinale in vivo Bildgebung gewann in den letzten 2 Jahrzehnten zunehmend an Bedeutung. Es fehlt aber häufig die Korrelation der in vivo erstellten quasi „histologischen“ Aufnahmen mit der tatsächlichen Histologie. An der Klinik und Poliklinik für Augenheilkunde des Universitätsklinikums Würzburg wurde ein standardisiertes System zur vergleichenden in vivo/ex vivo und histologischen retinalen Bildgebung des menschlichen Auges etabliert. In der vorliegenden „proof of concept study“ konnte der Arbeitsablauf erfolgreich gezeigt werden. Es wurden Abläufe geschaffen, die die ex vivo multimodale retinale Bildgebung analog zur in vivo Bildgebung an denselben Geräten ermöglichen. Die histologische Aufarbeitung des Gewebes erfolgt im Anschluss und ermöglicht die Korrelation von technisch gefundenen Veränderungen mit lichtmikroskopisch beschriebenen Auffälligkeiten. Diese histologischen Korrelate tragen zum besseren Verständnis von in vivo gefundenen Veränderungen bei. Gleichzeitig verbessern neu gefundene Auffälligkeiten in der in vivo Bildgebung das Verständnis und Früherkennung vieler retinaler Erkrankungen. Die Vorteile exzellent konservierter, aufbereiteter und histologisch untersuchter Proben wurde hier am Beispiel der CNTF-Expression dargestellt. Es konnte gezeigt werden, dass dieses Zytokin insbesondere bei neovaskulärer AMD in den Fotorezeptoraußensegmenten exprimiert wird. / Retinal in vivo imaging has become increasingly important over the past two decades. However, there is often no correlation between the almost histological image quality made in vivo and the actual histology. A standardized system for comparing in vivo/ex vivo and histological retinal imaging of the human eye was established at the “Klinik und Poliklinik für Augenheilkunde des Universitätsklinikums Würzburg”. In this "proof of concept study" the workflow could be successfully demonstrated. Procedures were created that enable ex vivo multimodal retinal imaging analogous to in vivo imaging on the same devices. The histological processing of the tissue is then carried out and enables the correlation of technically found changes with abnormalities described by light microscopy. These histological correlations contribute to a better understanding of changes found in vivo. At the same time, newly found abnormalities in in vivo imaging improve the understanding and early detection of many retinal diseases. The advantages of excellently preserved, processed and histologically examined samples were presented here using CNTF expression as an example. It could be shown that this cytokine is expressed in the photoreceptor outer segments, particularly in neovascular AMD.
|
113 |
Remote Sensing of Supraglacial Lake Dynamics in Antarctica - Exploiting Methods from Artificial Intelligence for Derivation of Antarctic Supraglacial Lake Extents in Multi-Sensor Remote Sensing Data / Fernerkundung der Dynamik supraglazialer Seen in der Antarktis - Analyse von supraglazialen Seen in Multi-Sensor Fernerkundungsdaten mittels Methoden der Künstlichen IntelligenzDirscherl, Mariel Christina January 2022 (has links) (PDF)
With accelerating global climate change, the Antarctic Ice Sheet is exposed to increasing ice dynamic change. During 1992 and 2017, Antarctica contributed ~7.6 mm to global sea-level-rise mainly due to ocean thermal forcing along West Antarctica and atmospheric warming along the Antarctic Peninsula (API). Together, these processes caused the progressive retreat of glaciers and ice shelves and weakened their efficient buttressing force causing widespread ice flow accelerations. Holding ~91% of the global ice mass and 57.3 m of sea-level-equivalent, the Antarctic Ice Sheet is by far the largest potential contributor to future sea-level-rise.
Despite the improved understanding of Antarctic ice dynamics, the future of Antarctica remains difficult to predict with its contribution to global sea-level-rise representing the largest uncertainty in current projections. Given that recent studies point towards atmospheric warming and melt intensification to become a dominant driver for future Antarctic ice mass loss, the monitoring of supraglacial lakes and their impacts on ice dynamics is of utmost importance. In this regard, recent progress in Earth Observation provides an abundance of high-resolution optical and Synthetic Aperture Radar (SAR) satellite data at unprecedented spatial and temporal coverage and greatly supports the monitoring of the Antarctic continent where ground-based mapping efforts are difficult to perform. As an automated mapping technique for supraglacial lake extent delineation in optical and SAR satellite imagery as well as a pan-Antarctic inventory of Antarctic supraglacial lakes at high spatial and temporal resolution is entirely missing, this thesis aims to advance the understanding of Antarctic surface hydrology through exploitation of spaceborne remote sensing.
In particular, a detailed literature review on spaceborne remote sensing of Antarctic supraglacial lakes identified several research gaps including the lack of (1) an automated mapping technique for optical or SAR satellite data that is transferable in space and time, (2) high-resolution supraglacial lake extent mappings at intra-annual and inter-annual temporal resolution and (3) large-scale mapping efforts across the entire Antarctic continent. In addition, past method developments were found to be restricted to purely visual, manual or semi-automated mapping techniques hindering their application to multi-temporal satellite imagery at large-scale. In this context, the development of automated mapping techniques was mainly limited by sensor-specific characteristics including the similar appearance of supraglacial lakes and other ice sheet surface features in optical or SAR data, the varying temporal signature of supraglacial lakes throughout the year as well as effects such as speckle noise and wind roughening in SAR data or cloud coverage in optical data. To overcome these limitations, this thesis exploits methods from artificial intelligence and big data processing for development of an automated processing chain for supraglacial lake extent delineation in Sentinel-1 SAR and optical Sentinel-2 satellite imagery. The combination of both sensor types enabled to capture both surface and subsurface lakes as well as to acquire data during cloud cover or wind roughening of lakes. For Sentinel-1, a deep convolutional neural network based on residual U-Net was trained on the basis of 21,200 labeled Sentinel-1 SAR image patches covering 13 Antarctic regions. Similarly, optical Sentinel-2 data were collected over 14 Antarctic regions and used for training of a Random Forest classifier. Optical and SAR classification products were combined through decision-level fusion at bi-weekly temporal scale and unprecedented 10 m spatial resolution. Finally, the method was implemented as part of DLR’s High-Performance Computing infrastructure allowing for an automated processing of large amounts of data including all required pre- and postprocessing steps. The results of an accuracy assessment over independent test scenes highlighted the functionality of the classifiers returning accuracies of 93% and 95% for supraglacial lakes in Sentinel-1 and Sentinel-2 satellite imagery, respectively.
Exploiting the full archive of Sentinel-1 and Sentinel-2, the developed framework for the first time enabled the monitoring of seasonal characteristics of Antarctic supraglacial lakes over six major ice shelves in 2015-2021. In particular, the results for API ice shelves revealed low lake coverage during 2015-2018 and particularly high lake coverage during the 2019-2020 and 2020-2021 melting seasons. On the contrary, East Antarctic ice shelves were characterized by high lake coverage during 2016-2019 and
extremely low lake coverage during the 2020-2021 melting season. Over all six investigated ice shelves, the development of drainage systems was revealed highlighting an increased risk for ice shelf instability. Through statistical correlation analysis with climate data at varying time lags as well as annual data on Southern Hemisphere atmospheric modes, environmental drivers for meltwater ponding were revealed. In addition, the influence of the local glaciological setting was investigated through computation of annual recurrence times of lakes. Over both ice sheet regions, the complex interplay between local, regional and large-scale environmental drivers was found to control supraglacial lake formation despite local to regional discrepancies, as revealed through pixel-based correlation analysis. Local control factors included the ice surface topography, the ice shelf geometry, the presence of low-albedo features as well as a reduced firn air content and were found to exert strong control on lake distribution. On the other hand, regional controls on lake evolution were revealed to be the amount of incoming solar radiation, air temperature and wind occurrence. While foehn winds were found to dictate lake evolution over the API, katabatic winds influenced lake ponding in East Antarctica. Furthermore, the regional near-surface climate was shown to be driven by large-scale atmospheric modes and teleconnections with the tropics. Overall, the results highlight that similar driving factors control supraglacial lake formation on the API and EAIS pointing towards their transferability to other Antarctic regions. / Der antarktische Eisschild erfährt angesichts der globalen Erderwärmung zunehmende eisdynamische Veränderungen. Zwischen 1992 und 2017 trug die Antarktis mit ~7.6 mm zum globalen Meeresspiegelanstieg bei, was vor allem auf die Erwärmung des Ozeans entlang der Westantarktis und die Erwärmung der Atmosphäre entlang der Antarktischen Halbinsel zurückzuführen ist. Zusammen verursachten diese Prozesse den fortschreitenden Rückgang von Gletschern und Schelfeis und schwächten ihren Rückhalteeffekt. Mit einem Anteil von ~91% an der globalen Eismasse und einem Meeresspiegeläquivalent von 57.3 m ist der antarktische Eisschild der größte potentielle Verursacher eines zukünftigen Meeresspiegelanstiegs.
Trotz des verbesserten Verständnisses der antarktischen Eisdynamik kann die Zukunft der Antarktis nur schwer vorhergesagt werden. In Anbetracht der Tatsache, dass die Erwärmung der Atmosphäre und die damit einhergehende Oberflächenschmelze eine der Hauptursachen für künftige Massenverluste der Antarktis sein werden, ist die Kartierung von supraglazialen Seen von größter Bedeutung und Wichtigkeit. In dieser Hinsicht liefert die Erdbeobachtung eine Vielzahl von räumlich und zeitlich hochaufgelösten Satellitendaten für das Monitoring der Antarktis. Da eine automatisierte Methode zur Kartierung von supraglazialen Seen in Satellitendaten sowie ein großräumiges Inventar gänzlich fehlen, ist das Ziel dieser Arbeit zu einem besseren Verständnis der antarktischen Oberflächenhydrologie beizutragen. Zu diesem Zweck wurde ein neuartiges Prozessierungsverfahren für die automatisierte Kartierung von supraglazialen Seen in Sentinel-1 und Sentinel-2 Satellitenbilddaten entwickelt.
Basierend auf einer umfassenden Literaturrecherche in Bezug auf die satellitengestützte Fernerkundung von antarktischen supraglazialen Seen wurden mehrere Forschungslücken identifiziert, darunter das Fehlen von (1) einem automatisierten Klassifikationsalgorithmus für optische und Radar Satellitendaten, der in Raum und Zeit übertragbar ist, (2) hochaufgelösten Kartierungen von supraglazialen Seen mit jährlicher sowie saisonaler zeitlicher Auflösung und (3) großräumigen Kartierungen über der gesamten Antarktis. Darüber hinaus wurde festgestellt, dass sich vergangene Methodenentwicklungen auf eine rein visuelle, manuelle oder halbautomatisierte Kartierungstechnik stützten, was ihre Anwendung auf multitemporale Satellitenbilder über dem gesamten Kontinent verhinderte. Die Entwicklung einer
automatisierten Kartierungsmethode wurde hierbei vor allem durch sensorspezifische Merkmale eingeschränkt, darunter das ähnliche Erscheinungsbild von supraglazialen Seen und anderen Landbedeckungsklassen in optischen oder Radar Daten, die variierende zeitliche Signatur von supraglazialen Seen sowie Effekte wie SpeckleRauschen oder die Windaufrauhung von Seen in Radar Daten. Um diese Limitierungen zu überwinden, basiert der entwickelte Algorithmus zur automatisierten Kartierung von supraglazialen Seen in optischen and Radar Satellitendaten auf Methoden der künstlichen Intelligenz und der Big-Data-Analytik. Die Kombination von beiden Sensortypen ermöglicht es, sowohl supraglaziale als auch mit Schnee bedeckte Seen zu erfassen. Für Sentinel-1 wurde ein neuronales Netzwerk basierend auf „residual U-Net“ mittels 21,200 Radaraufnahmen über 13 antarktischen Regionen trainiert. In ähnlicher Weise wurden optische Sentinel-2 Daten über 14 antarktischen Regionen gesammelt und zum Trainieren eines „Random Forest“ Klassifikators verwendet. Die beiden Methoden wurden durch die Fusion von optischen und Radar Klassifikationsergebnissen kombiniert und als Teil der DLR-internen Prozessierungs-Infrastruktur auf Hochleistungsrechnern implementiert, die eine vollautomatische Verarbeitung großer Datenmengen einschließlich aller erforderlichen Vor- und Nachverarbeitungsschritte ermöglichen. Eine Fehleranalyse über unabhängigen Testszenen zeigte die Funktionalität der Algorithmen, die Genauigkeiten von 93% bzw. 95% für supraglaziale Seen in Sentinel-1 und Sentinel-2 Daten erreichten.
Unter Nutzung des gesamten Archivs an Sentinel-1 und Sentinel-2 Daten im Zeitraum 2015-2021 ermöglichte die entwickelte Prozessierungs-Kette erstmals die Erfassung von saisonalen Merkmalen supraglazialer Seen über sechs großen SchelfeisRegionen. Die Ergebnisse für die Antarktische Halbinsel zeigten ein geringes Auftreten von supraglazialen Seen im Zeitraum 2015-2018 und ein stark erhöhtes Auftreten von supraglazialen Seen während der Schmelzsaison 2019-2020 und 2020-2021. Im Gegensatz dazu war die Ostantarktis durch ein stark erhöhtes Auftreten von supraglazialen Seen in den Jahren 2016-2019 sowie ein stark reduziertes Auftreten von supraglazialen Seen während der Schmelzsaison 2020-2021 gekennzeichnet. Über beiden Regionen entwickelten sich ausgeprägte Seen-Netzwerke, die ein erhöhtes Risiko für die Stabilität von Schelfeis darstellen. Durch statistische Korrelationsanalysen mit saisonalen Klimadaten sowie jährlichen Daten zu atmosphärischen Modi wurden Umwelteinflüsse auf die Entstehung von Seen analysiert. In beiden antarktischen Regionen wurde festgestellt, dass das komplexe Zusammenspiel von lokalen, regionalen und großräumigen Umweltfaktoren die Entstehung von supraglazialen Seen begünstigt. Zu den lokalen Einflussfaktoren gehören die Topographie, die Schelfeisgeometrie, das Vorhandensein von Oberflächen mit geringer Albedo sowie ein reduzierter Luftgehalt im Firn. Andererseits wurde festgestellt, dass die Sonneneinstrahlung, die Lufttemperatur und Wind die Entstehung von Seen regional beeinflussen. Während Föhnwinde über der Antarktischen Halbinsel auftreten, dominieren katabatische Winde in der Ostantarktis. Darüber hinaus wurde verdeutlicht, dass das regionale Klima von atmosphärischen Modi beeinflusst wird. Insgesamt deuten die Ergebnisse darauf hin, dass ähnliche Umweltfaktoren die Entstehung von supraglazialen Seen über beiden Regionen steuern, was Rückschlüsse auf ihre Übertragbarkeit in andere antarktische Regionen zulässt.
|
114 |
Angewandte statistische Optik in der Weißlicht-Interferometrie Räumliches Phasenschieben und Einfluss optisch rauer Oberflächen /Hering, Marco. January 2007 (has links)
Heidelberg, Univ., Diss., 2007.
|
115 |
Automatisierte Ableitung von Bodenbedeckungsgraden durch MESMA-Entmischung / Automated estimation of ground cover fractions using MESMA unmixingBachmann, Martin U. R. January 2007 (has links) (PDF)
Weltweit sind Trockengebiete in ständiger Veränderung, verursacht durch natürliche klimatische Schwankungen und oftmals durch Prozesse der Landdegradation. Auch weisen die meisten semi-ariden Naturräume eine große räumliche Heterogenität auf, hervorgerufen durch ein kleinräumiges Mosaik aus Gräsern, kleineren Sträuchern und Bereichen offenliegenden Bodens. Die Dichte der Vegetation wird primär vom pflanzenverfügbaren Wasser bestimmt, aber auch der Entwicklungs- und Degradationszustand der Böden sowie anthropogen bedingte Faktoren spielen hierbei eine Rolle. Zur Charakterisierung und Kartierung der Vegetation sowie zur Bewertung des Bodenerosionsrisikos und des Degradationszustands hat sich die Erhebung der Bedeckungsgrade von vitaler, photosynthetisch aktiver Vegetation (PV), von abgestorbener oder zeitweise vertrockneter und somit nicht photosynthetisch aktiver Vegetation (NPV) sowie von offenliegendem Boden als zweckmäßig herausgestellt. Die Nutzung der Fernerkundung für diese Aufgabe erfolgt zumeist nur für kleinmaßstäbige Kartierungen und – im Falle von Multispektralsensoren – unter Vernachlässigung nicht-photosynthetisch aktiver Vegetation. Die räumliche Variabilität der Vegetation-Boden-Mosaike liegt oftmals in der Größenordnung von wenigen Metern und somit unterhalb des räumlichen Auflösungsvermögens von Fernerkundungssystemen. Um dennoch die verschiedenen Anteile innerhalb eines Pixels identifizieren und quantifizieren zu können, sind Methoden der Subpixel-Klassifikation notwendig. In dieser Arbeit wird eine Methodik zur verbesserten und automatisierbaren Ableitung von Bodenbedeckungsgraden in semi-ariden Naturräumen vorgestellt. Hierzu wurde ein Verfahren zur linearen spektralen Entmischung in Form einer Multiple Endmember Spectral Mixture Analysis (MESMA) entwickelt und umgesetzt. Durch diese Methodik kann explizit die spektrale Variabilität von Vegetation und Boden in das Mischungsmodellmiteinbezogen werden, und quantitative Anteile für die funktionalen Klassen PV, NPV und Boden innerhalb eines Pixels erfasst werden. Durch die räumliche Kartierung der verwendeten EM wird weiterhin eine thematische Klassifikation erreicht. Die hierfür benötigten Informationen können – wie im Falle der Spektren reiner Materialien (EM-Spektren) – aus den Bilddaten selbst abgeleitet werden, oder können – wie ein Geländemodell und die Information über den Scanwinkel – im Zuge der Vorprozessierung aus weiteren Datenquellen erzeugt werden. Hinsichtlich der automatisierten EM-Ableitung wird eine zweistufige Methodik eingesetzt, welche auf einer angepassten Version des Sequential Maximum Angle Convex Cone (SMACC)-Verfahrens sowie der Analyse einer ersten Entmischungsiteration basiert. Die Klassifikation der gefundenen potentiellen EM erfolgt durch ein merkmalsbasiertes Verfahren. Weiterhin weisen nicht-photosynthetisch aktive Vegetation und Boden eine hohe spektrale Ähnlichkeit auf. Zur sicheren Trennung kann die Identifikation schmaler Absorptionsbanden dienen. Zu diesen zählen beispielsweise die Absorptionsbanden von Holozellulose und – je nach Bodentyp – Absorptionsbanden von Bodenmineralen. Auch die spektrale Variabilität der Klassen PV und NPV erfordert zur sicheren Unterscheidung die Verwendung biophysikalisch erklärbarer Merkmale im Spektrum. Hierzu zählen unter anderem die Stärke der Chlorophyll-Absorption, die Form und Lage der ’RedEdge’ und das Auftreten von Holozellulosebanden. Da diese spektrale Information bei herkömmlichen Entmischungsansätzen nicht berücksichtigt wird, erfolgt überwiegend eine Optimierung der Gesamtalbedo, was zu einer schlechten Trennung der Klassen führen kann. Aus diesem Grund wird in der vorliegenden Arbeit der MESMA-Ansatz dahingehend erweitert, dass spektrale Information in Form von identifizierten und parametrisierten Absorptionsbanden in den Entmischungsprozess mit einfließt und hierdurch das Potential hyperspektraler Datensätze besser genutzt werden kann. Auch wird in einer zusätzlichen Entmischungsiteration die räumliche Nachbarschaft betrachtet, um insbesondere die Verwendung des sinnvollsten Boden-EMs zu gewährleisten. Ein zusätzliches Problemfeld stellt die numerische Lösung des überbestimmten und oftmals schlecht konditionierten linearen Mischungsmodells dar. Hierzu kann durch die Verwendung des BVLS-Algorithmus und des Ausschlusses kritischer EM-Kombinationen eine numerisch stabile Lösung gefunden werden. Um die oftmals immense Rechenzeit von MESMA-Verfahren zu verkürzen, besteht die Möglichkeit einer iterativen EM-Auswahl und somit die Vermeidung einer Lösung des Mischungssystems durch Berechnung aller EM-Kombinationen (’Brute-Force’-Ansatz). Ein weiterer wichtiger Punkt ist die explizite pixelweise Angabe zur Zuverlässigkeit der Entmischungsergebnisse. Dies erfolgt auf Basis des Mischungsmodells selbst, durch den Vergleich zu empirischen Regressionsmodellen, durch die Berücksichtigung des lokalen Einfallswinkels sowie durch die Integration von Qualitätsangaben der Ausgangsdaten. Um das Verfahren systematisch und unter kontrollierten Bedingungen zu verifizieren und um den Einfluss verschiedener externer Parameter sowie die typischen Genauigkeiten auf einer breiten Datenbasis zu ermitteln, wird eine Simulationskette zur Erzeugung synthetischer Mischungen erstellt. In diese Simulationen fließen Feldspektren von Böden und Pflanzen verschiedener semi-arider Gebiete mit ein, um möglichst viele Fälle abdecken zu können. Die eigentliche Validierung erfolgt auf HyMap-Datensätzen des Naturparks ’Cabo de Gata’ in der andalusischen Provinz Almería sowie auf Messungen, die begleitend im Feld durchgeführt wurden. Hiermit konnte die Methodik auf ihre Genauigkeit unter den konkreten Anforderungen des Anwendungsbeispiels überprüft werden. Die erzielbare Genauigkeit dieser automatisierten Methodik liegt mit einem mittleren Fehler um rund 10% Abundanz absolut im selben Wertebereich oder nur geringfügig höher als die Ergebnisse publizierter manueller MESMA-Ansätze. Weiterhin konnten die typischen Genauigkeiten der Verifikation im Zuge der Validierung bestätigt werden. Den limitierenden Faktor des Ansatzes stellen in der Praxis fehlerhafte oder unvollständige EM-Modelle dar. Mit der vorgestellten Methodik ist somit die Möglichkeit gegeben, die Bedeckungsgrade quantitativ und automatisiert im Subpixelbereich zu erfassen. / Hyperspectral remote sensing has shown the potential to directly identify and parameterize absorption features and form parameters of spectral signatures. Using this information bio- and geo-physical properties of the sensed surfaces can be retrieved. Conventional spectral unmixing approaches disregard this information since all data values are equally incorporated despite their spectral position. The approach introduced in this thesis for the first time combines an automated spectral unmixing methodology with methods of spectral identification in order to use the full potential of spectroscopic data. An intrinsic property of semi-arid environments all over the world is large spatial heterogeneity caused by a small-scaled mosaic of grasses, small bushes and patches of bare soil. Vegetation cover is primarily limited by water, but also the status of the soil as well as anthropogenetic factors are important. The cover percentage is a standard parameter in vegetation mapping, for soil risk assessment, and for the assessment of land degradation. Therefore, it was found appropriate in a large number of studies to retrieve cover percentage for the functional classes of bare soil, vital photosynthetic active vegetation (PV) as well as dead or senescent non-photosynthetic Vegetation (NPV). For these tasks remote sensing is often applied only for small-scaled applications, and, when using multispectral sensors, commonly neglects non-photosynthetic vegetation. Also, the spatial extent of vegetation and soil patches is in many cases smaller than the spatial resolution of the sensor. Thus subpixel classifiers are required in order to identify and quantify the fractions within a single pixel. The aim of this study is to develop a methodology to provide accurate cover fractions for the mentioned functional classes at the patch scale. Therefore an automated methodology for quantitative subpixel classification based on linear spectral unmixing of hyperspectral data is introduced. This automated thematic processor, denoted muMESMA in the following, can be linked to automated pre-processing chains for hyperspectral data. All parts of muMESMA are verified using a series of spectral simulations in order to systematically test the consistency, general applicability and dependency on input variables of the approach. Also, typical error margins of the approach are estimated based on this large database of test scenarios. Validation of the thematic processor is then carried out for an application example based on multiple HyMap scenes of the ’Cabo de Gata’ natural park, province Almería, southeast Spain. The area is dominated by tussock grasses, small bushes and abandoned agricultural fields, and can be considered typical for semi-arid grasslands. To ensure an automated and widely applicable methodology, all required information should be retrieved from the imagery itself or from standard pre-processing products. In the case of spectral unmixing, the detection of all required spectral signatures of pure scene materials (denoted as Endmembers, EM) from the image itself is critical. For this purpose the Sequential Maximum Angle Convex Cone (SMACC) method is adjusted for automated usage. In order to increase the EM detection rate an additional approach is included in muMESMA. Potential new EM can be identified during a first unmixing iteration based on the assumption that pixels which can not be accurately modelled have a higher chance of being EM themselves. Using this two-step approach for endmember detection, about 70% of all EM spectra could be automatically retrieved in a series of simulated test cases. As for most unsupervised classification methods these two approaches do not include an identification of spectra. Thus muMESMA includes a decision-based spectral classifier for the classes of interest of this study. Based on diagnostic features in the spectra, the use of threshold values can be mostly avoided. The classification accuracy of this approach was 93% when using pure field spectra of the relevant classes. But this chance of ~ 1 in 10 for an inappropriate EM is critical since the accurate unmixing of most scenes requires more than 10 EM. Thus in order to guarantee suitable EM spectra and therefore accurate unmixing results a manual control of retrieved EM is highly recommended. After that the final EM set is selected based on different criteria and data tests, such as Endmember Average RMSE (EAR). To include the spectral variability of all classes in the unmixing process a large number of EM is required. But linear dependencies between spectrally similar classes significantly reduce the mathematical accuracy of the solution when using an increasing number of EMs. To avoid an ’ill-condition’ of the unmixing a Multiple Endmember Spectral Mixture Analysis (MESMA) approach is used. In this approach each image spectrum is linearly unmixed using all combinations of one spectrum for each of the classes PV, NPV and Soil. Afterwards, the model with the smallest modelling RMS-error is selected and the corresponding fractions are assigned to the pixel. For simulation scenarios the mean unmixing error can be reduced from 11.3% when using conventional manual unmixing to 9.6% using an automated MESMA. For the test area of ’Cabo de Gata’ the MESMA approach was able to accurately model the whole image with one comprehensive EM set despite changing spectral characteristics of surfaces (e. g., changes in vegetation status or composition, variation in soil type). In addition, a good condition of the mixing model without linear dependencies was achieved. The mean error over all test plots could be reduced by 0.6% abundance absolute. Using only the modelling RMS error as model selection criterion is not optimal since this measure is dominated by the overall albedo and small but important spectral features are often neglected. This might cause an increased inaccuracy of estimated ground cover fractions for the spectrally similar classes of NPV and bare soil, since the overall shape of the spectra is highly similar. Thus the residual spectrum (i. e., the part of the signal which cannot be modelled with the given EMs) is analysed using a knowledge-based approach in order to identify a meaningful EM model for each pixel. Using a combined model selection criterion based on this residual analysis, on modelling RMS and on physical constraints, the unmixing error can be further reduced to an average of 8.6% abundance absolute in simulation scenarios. The robustness of the approach is also increased, especially when introducing additional sources of error like partial shadowing, lichens, increased sensor noise or inexact EM. This increased stability is highly important for the HyMap imagery of Cabo de Gata since in all real-world applications the whole spectral variability cannot be completely represented by EMs. Thus the mean unmixing error can be significantly lowered from 15.1% abundance absolute when only optimizing the model RMS error to 11.6% abundance absolute when using the combined optimization criterion including residual analysis. The correlation between field measurements and unmixing results was significant (p < 0.005) with correlation coefficients between 0.76 and 0.86 (R2 values). This average accuracy of the automated muMESMA approach is in the same range as published values of manual field cover measurements, and is equal or only slightly higher than published results using manual MESMA approaches with similar thematic. Also, an additional unmixing iteration incorporating spatial neighbourhood information is included to ensure that a reasonable EM model is selected for each pixel. To reduce the calculation time of the three MESMA unmixing iterations muMESMA can iteratively propose EM models to avoid a ’brute force’ calculation. This methodology based on the residual analysis can significantly reduce calculation time by a factor of 7, but also reduces unmixing accuracy. Another important part of this automated thematic processor is a reliability measure of unmixing quality for every pixel. Based on the residual analysis, modelling error, comparison with empirical regression models and local incidence angle, pixels which are likely error-prone can be identified with the muMESMA approach. For areas with rough terrain the unmixing accuracy can further be increased. Local incidence angle effects significantly affect the accuracy of ground cover estimates for all measurements off-nadir where terrain is rough and vegetation patchy. When the line of sight from bare soil patches to the sensor is (partially) blocked by vegetation, the cover percentage of bare soil is underestimated, while fractional cover by vegetation is overestimated. Using the local incidence angle and empirical vegetation parameters (average height and basal area) a pixel-based empirical correction can be carried out. For the ’Cabo de Gata’ test site the average accuracy of ground increased by an additional 2% abundance absolute. Within this thesis it could be shown that the estimation of ground cover fractions for the functional classes PV, NPV and bare soil can be carried out with increased accuracy using hyperspectral data. With the exception of a recommended manual check the muMESMA approach is fully automated and can retrieve all required information from standardized input data generated by most preprocessing chains. The results of the verification carried out on a large database of field spectra from different semi-arid natural environments and different phenological conditions could be confirmed in the validation for the specific application case ’Cabo de Gata’ based on three multitemporal HyMap data sets. Thus the wide applicability of the approach can be assumed.
|
116 |
Symmetry and Optical Anisotropy in CdSe/ZnSe Quantum DotsKießling, Tobias January 2009 (has links) (PDF)
Halbleiter Quantenpunkte (QDs) erregen immenses Interesse sowohl in der Grundlagen- als auch der anwendungsorientierten Forschung, was sich maßgeblich aus ihrer möglichen Nutzung als Fundamentalbausteine in neuartigen, physikalisch nicht-klassischen Bauelementen ergibt, darunter die Nutzung von QDs als gezielt ansteuerbare Lichtquellen zur Erzeugung einzelner Paare polarisationsverschränkter Photonen, was einen Kernbaustein in den intensiv erforschten optischen Quantenkryptographiekonzepten darstellt. Ein goßes Hindernis stellen hierbei die in allen aktuell verfügbaren QDs intrinsisch vorhandenen, ausgeprägten Asymmetrien dar. Diese sind eine Begleiterscheinung der selbstorganisierten Wachstumsmethoden der QDs und sie treten in verschiedenen Gestalten, wie Formasymmetrie oder inhomogenen Verspannungsverhältnissen innerhalb der QDs, auf. Im Gegenzug verursachen jene Asymmetrien deutliche Anisotropien in den optischen Eigenschaften der QDs, wodurch das optische Ansprechverhalten klassisch beschreibbar wird. Aus Sicht der anwendungsorientierten Forschung stehen Asymmetrien daher im Ruf ungewollte Nebeneffekte zu sein und es wird mit großem Aufwand daran geforscht, diese unter Kontrolle zu bringen. Für die Grundlagenforschung sind anisotrope QDs jedoch ein interessantes Modellsystem, da an ihnen fundamentale Quantenphysik beobachtbar ist, wobei anders als in Atomen die einschnürenden Potentiale nicht zwangsläufig zentralsymmetrisch sein müssen. Auf der Basis winkel- und polarisationsaufgelöster Photolumineszenzuntersuchungen (PL) wird die Anisotropie des linearen Polarisationsgrades in der Lumineszenzstrahlung (kurz: optische Anisotropie) der an CdSe/ZnSe-QDs gebundenen Exzitonen untersucht. Es wird gezeigt, dass die Elektron-Loch Austauschwechselwirkung in asymmetrischen QDs zu einer effektiven Umwandlung linearer in zirkulare Polarisationsanteile und umgekehrt führt. Die experimentellen Befunde lassen sich erfolgreich im Rahmen eines Exziton-Pseudospinformalismus, der auf der durch die Austauschwechselwirkung induzierten Feinstruktur der hellen Exzitonzustände basiert, beschreiben. Dies legt nahe, dass QDs funktionelle Bauelemente in hochintegrierten rein optischen Architekturen jenseits der viel diskutierten nichtklassischen Konzepte darstellen können, insbesondere als optische Polarisationskonverter und/oder -modulatoren. Weiterhin wird der Exziton-Pseudospinformalismus in Untersuchungen zur optischen Ausrichtung in QDs genutzt und gezeigt, wie so die anders nicht direkt messbare Symmetrieverteilung eines Ensembles von QDs detektiert werden kann. Diese Messungen stellen ein wertvolles Bindeglied zwischen optischen und strukturellen Untersuchungen dar, da sie einen direkten experimentellen Zugang zum mit topologischen Methoden nicht einsehbaren Anordnungsverhalten eingekapselter QDs liefern. Abschließend wird die optische Anisotropie unter Anlegung eines Magnetfeldes in der QD-Ebene untersucht. Dabei wird beobachtet, dass die Achse der linearen Polarisation der Lumineszenzstrahlung entweder entgegengesetzt zur Magnetfeldrichtung in der Probenebene rotiert oder fest entlang einer gegebenen kristallographischen Achse orientiert ist. Eine qualitative Auswertung der Ergebnisse auf der Basis des exzitonischen Pseudospin-Hamiltonian belegt, dass diese Polarisationsanteile durch isotrope und anisotrope Beiträge des Schwerloch Zeeman Terms begründet werden, wobei die anisotropen Anteile für ein kritisches Magnetfeld von B=0, 4 T gerade die forminduzierten uni-axialen Polarisationsanteile kompensieren, so dass ein optisches Verhalten resultiert, das man für hochsymmetrische QDs erwarten würde. Zur quantitativen Beschreibung wurde der vollständige k.p-Hamiltonianin der Basis der Schwerlochexzitonzustände numerisch ausgewertet und damit die optische Polarisation als Funktion der Magnetfeldstärke und -orientierung berechnet. Die Modellrechnungen stimmen mit die gemessenen Daten im Rahmen der experimentellen Unsicherheit mit einem jeweils probenspezifischen Parametersatz quantitativ überein. Dabei wird gezeigt, dass ein Ensemble von QDs ein optisches Signal, das man für hochsymmetrisches QDs erwarten würde, erzeugen kann ohne dass eine Symmetrisierung der hellen Exzitonzustände stattfindet, wie sie für nicht-klassische Anwednungen notwendig ist. Daraus ergibt sich, dass Konzepte, die Magnetfelder in der Probenebene zur Symmetrisierung des optischen Signals nutzen, mindestens die vier stark durchmischten Schwerlochexzitonzusände berücksichtigen müssen und eine Beschreibung, die nur die beiden hellen Exzitonzustände in Abwesenheit magnetischer Felder beinhaltet, zu kurz greift. Für die kontrovers geführte Diskussion bezüglich aktueller experimenteller Studien zur Erzeugung polarisationsverschränkter Photonen in asymmetrischen QDs ist daher zu verstehen, dass von solch einer vereinfachten Beschreibung nicht a priori erwartet werden kann, verlässliche Ergebnisse in Bezug auf exzitonische Bellzustände zu erzeugen. / Semiconductor Quantum Dots (QDs) have been attracting immense interest over the last decade from both basic and application-orientated research because of their envisioned use as fundamental building blocks in non-classical device architectures. Their presumable ease of integration into existing semiconductor technology has bought them the reputation of being cost-efficiently scalable and renders them a place among the top candidates in a wide range of proposed quantum logic and quantum information processing schemes. These include the highly acclaimed use of QD as triggered sources of single pairs of entangled photons, which is a key ingredient of most of the intensivly investigated optical quantum cryptography operations. A big obstacle towards these goals are the pronounced asymmetries that are intrinsically present in all currently availabe semiconductor QD systems. They are a natural by-product that stems from the employed self-assembled growth methods and manifest in various forms such as shape-asymmetry, inhomogeneous strain distribution within the QD and concomittant piezo-elecric fields. These asymmetries in return give rise to distinct anisotropies in the optical properties of QDs, which in fact render their optical response classic. For device oriented research these anisotropies are therefore typically considered unwanted and actively researched to be controlled. They are, however, interesting from a fundamental point of view, as anisotropic QDs basically provide a testbed system for fundamental atom-like quantum physics with non-centrosymmetric potentials. As shall be shown in the current work, this gives rise to novel and interesting physics in its own right. Employing photoluminescence spectroscopy (PL) we investigate the optical anisotropy of the radiative recombination of excitons confined to CdSe/ZnSe QDs. This is done by angle-dependent polarization-resolved PL. We demonstrate experimentally that the electron-hole exchange interaction in asymmetric QDs gives rise to an effective conversion of the optical polarization from linear to circular and vice versa. The experiment is succesfully modeled in the frame of an exciton pseudospin-formalism that is based on the exchange induced finestructure splitting of the radiative excitonic states and unambiguously proves that the observed polarization conversion is the continuous-wave equivalent to quantum beats between the exchange split states in the time domain. These results indicate that QDs may offer extended functionality beyond non-classical light sources in highly integrated all-optical device schemes, such as polarization converters or modulators. In a further extension we apply the exciton pseudospin-formalism to optical alignment studies and demonstrate how these can be used to directly measure the otherwise hidden symmetry distribution over an ensemble of QDs. This kind of measurement may be used on future optical studies in order to link optical data more directly to structural investigations, as it yields valuable information on capped QDs that cannot be looked at directly by topological methods. In the last part of this work we study the influence of an in-plane magnetic field on the optical anisotropy. We find that the optical axis of the linear polarization component of the photoluminescence signal either rotates in the opposite direction to that of the magnetic field or remains fixed to a given crystalline direction. A qualitative theoretical analysis based on the exciton pseudospin Hamiltonian unambiguously demonstrates that these effects are induced by isotropic and anisotropic contributions to the heavy-hole Zeeman term, respectively. The latter is shown to be compensated by a built-in uniaxial anisotropy in a magnetic field B=0.4 T, resulting in an optical response that would be expected for highly symmetric QDs. For a comprehensive quantitative analysis the full heavy-hole exciton k.p-Hamiltonian is numerically calculated and the resulting optical polarization is modeled. The model is able to quantitatively describe all experimental results using a single set of parameters. From this model it is explicitly seen that a optical response characteristic for high symmetry QDs may be obtained from an ensemble of asymmetric QDs without a crossing of the zero-field bright exciton states, which was required for application of QDs in non-classical light sources. It is clearly demonstrated that any scheme using in-plane magnetic fields to symmetrize the optical response has to take into account at least four optically active states instead of the two observed in the absence of magnetic fields. These findings may explain some of the major disagreement on recent entanglement studies in asymmetric QDs, as models that do not take the above result into account cannot be a priori expected to provide reliable results on excitonic Bell states.
|
117 |
Optische Charakterisierung von II-VI-Halbleiter-Oberflächen in Kombination mit First-Principles-Rechnungen / Optical Characterisation of II-VI Semiconductor Surfaces in Combination with First Principles CalculationsWagner, Joachim January 2003 (has links) (PDF)
In dieser Arbeit sind Methoden der optischen Spektroskopie, insbesondere die Ramanspektroskopie (RS) und die Reflexions-Anisotropie-Spektroskopie (RAS), angewandt worden, um die Oberflächen von II-VI Halbleitern zu charakterisieren. Für die experimentellen Untersuchungen wurde eine eigens für diesen Zweck entwickelte UHV-Optikkammer benutzt. Diese einzigartige Möglichkeit, II-VI Halbleiterproben aus einer state-of-the-art MBE-Anlage mit einer UHV-Optikanlage zu kombinieren hat gezeigt, dass optische Spektroskopie sehr gut dafür geeignet ist, strukturelle Eigenschaften, z.B. Rekonstruktionen, und chemische Bindungen an Oberflächen, sowie die damit verbundene Schwingungsdynamik zu analysieren. Neben den experimentellen Arbeiten wurden u. a. first principles Rechnungen mittels der Dichtefunktionaltheorie im Rahmen der Lokalen-Dichte-Approximation durchgeführt. Damit konnten für die Oberflächen einerseits ihre geometrischen Eigenschaften, d.h die atomare Anordnung der Oberflächenatome, und andererseits auch ihre Dynamik, d.h. die Schwingungsfrequenzen und die Auslenkungsmuster der an der Rekonstruktion beteiligten Atome der Oberfläche und der oberflächennahen Schichten, im Rahmen der Frozen-Phonon-Näherung bestimmt werden. Die Kombination von experimenteller und theoretischer Vibrationsbestimmung von Oberflächen bietet also, neben den klassischen Oberflächen-Analysemethoden wie RHEED, LEED, XPS, Auger und SXRD, ein zusätzliches Werkzeug zur Charakterisierung von Oberflächen. Da die Frozen-Phonon-Näherung nicht elementarer Bestandteil des hier benutzten DFT-Programmcodes fhi96md ist, wurde diese Erweiterung im Rahmen dieser Arbeit durchgeführt. Die theoretische Berechnung von Schwingungsfrequenzen mit dynamischen Matrizen ist in einem Unterkapitel dargestellt. Die so berechneten Schwingungsfrequenzen für verschiedene Oberflächen-Rekonstruktionen konnten erfolgreich am Beispiel der reinen BeTe(100)-Oberfläche mit den experimentell mit der UHV-Ramanspektroskopie beobachteten Frequenzen verglichen werden. So gelang erstmalig die optische identifizierung von rekonstruktionsinduzierten Eigenschwingungen einer Oberfläche. Nach detaillierter Kenntnis der BeTe(100)-Oberfläche wurde die Ramanspektroskopie als Sonde benutzt, um die Entwicklung der BeTe-Oberfläche bei unterschiedlichen Behandlungen (Modifikation) zu verfolgen. Dabei dienten die früheren Ergebnisse als Referenzpunkte, um die modifizierten Spektren zu erklären. Zusätzlich wurde ein Konzept zur Passivierung der Te-reichen BeTe(100)-Oberfläche entwickelt, um diese Proben ohne einen technisch aufwendigen UHV-Transportbehälter über grössere Entfernungen transportieren zu können (z.B. zu Experimenten an einem Synchrotron). Mit der RAS wurden auch die Oberflächen von weiteren Gruppe II-Telluriden, nämlich die Te-reiche (2x1) CdTe(100)-Oberfläche, die Te-reiche (2x1) MnTe(100)-Oberfläche und die Hg-reiche c(2x2) HgTe(100)-Oberfläche untersucht. Schließlich wurde der Wachstumsstart von CdSe auf der BeTe(100)-Oberfläche im Bereich weniger Monolagen (1-5 ML) CdSe analysiert, wobei die hohe Empfindlichkeit der Ramanspektroskopie bereits den Nachweis einer Monolage CdSe erlaubte. / In this thesis optical spectroscopy, especially Raman spectroscopy (RS) and reflection anisotropy spectroscopy (RAS), was used for characterisation of II-VI-semiconductor surfaces. For the experimental studies a specially designed UHV-optical chamber was applied. The unique combination of a state of the art molecular beam epitaxy (MBE) facility with this UHV-optical chamber distinctly proved that optical spectroscopy is a powerfull tool for analyzing the structural properties (e.g. reconstructions) and the chemical bindings at a surface, as well as its dynamical properties. Beside the experimental activities, first principles calculations within the framework of density functional theory (DFT) and local density approximation (LDA) were performed. Therefore the geometrical, statical properties (e.g. atomic positions) of the surface and near-surface atoms could be determined. Additionally, their dynamical properties (e.g. displacement patterns and vibrational frequencies) were calculated with the frozen phonon approximation. This combination of experimental and theoretical determination of the surface dynamics offers an additional tool for surface characterisation beside the classical methods for surface analysis like RHEED, LEED, XPS, Auger and SXRD. Because frozen phonon calculations do not constitute an integral part of the available DFT programm code fhi96md, the extension was performed as a part of this thesis. The theoretical calculation of vibration frequencies with dynamical matrices is described in one of the subsections. The frequencies calculated in this way for different surface reconstructions were successfully compared with the experimentally observed frequencies in the case of pure BeTe(100) surfaces. Thus, the first optical identification of reconstruction-induced surface eigenvibration modes was realized. After this detailed knowledge of the BeTe(100) surface Raman spectroscopy was used as a probe to track the changes of the BeTe surface under different modifications. In doing so the previous result on the pure BeTe surfaces served as references to explain the modified spectra. Besides a concept for passivation of the tellurium rich BeTe(100) surface was developed to ease the transport to far away laboratories without using extensive UHV facilities. Additionally the surfaces of further group II-tellurides (e.g. Te-rich (2x1) CdTe(100), Te-rich (2x1) MnTe(100) and Hg-rich c(2x2) HgTe) has been investigated with the RAS. Finally the start of the CdSe growth on the BeTe(100) surface was analyzed in the region of 1-5 monolayers of CdSe. Within these experiments a high sensitivity for detecting even one monolayer of CdSe was achieved by Raman spectroscopy.
|
118 |
Nahfeldoptische Untersuchungen zum lokalen Schaltverhalten photochromer FulgideMager, Oliver 10 July 2000 (has links)
No description available.
|
119 |
Herstellung ultraschmaler Leitbahnen mit herkömmlichen Prozessen und Untersuchungen zum Pore Sealing bei porösen low-k DielektrikaBonitz, Jens 18 August 2005 (has links) (PDF)
Gegenstand dieser Arbeit sind zwei Problemstellungen der Mikroelektronik. Dies ist einerseits die Notwendigkeit zur Erzeugung kleiner Strukturgrößen um Untersuchungen an diesen durchzuführen. Innerhalb dieser Arbeit wurden ultraschmale Leitbahnen mit herkömmlichen Prozessen hergestellt, was den Einsatz neuer Lithographieanlagen oder auflösungsverbessernden Maßnahmen nicht notwendig macht. Hierzu wurde für zwei Verfahren, die Backfill- und die TiN-Spacer-Technologie, die Prozessschritte entwickelt und untersucht und beide Technologien hinsichtlich der erreichbaren Strukturgrößen bewertet.
Das zweite Thema dieser Arbeit war das pore sealing von porösen low-k-Dielektrika. Für diese Untersuchungen wurden verschiedene pore sealing Methoden wie Plasmabehandlungen oder dünne Schichten (Liner) angewandt. Die Effektivität dieser Methoden, auch in Abhängigkeit von low-k-Materialien mit verschiedenen Porengrößen, wurde durch Rasterelektronenmikroskopie, Untersuchung der Barrierestabilität und Untersuchung von Diffusion der Barriere in das Dielektrikum mittels TEM und EDX line scan bestimmt. / This work is concerned with two problems of microelectronic research. This is first the need for small features sizes to carry out investigations on them. Within this work very narrow conductor lines were fabricated with conventional processes. So the use of new lithography tools or resolution enhancement techniques was not necessary. For two technologies, the Backfill and the TiN spacer technology, the process steps were developed and investigated and both technologies were evaluated regarding the reachable feature sizes.
The second topic was pore sealing of porous low k dielectrics. For these investigations various pore sealing methods like plasma treatments or thin films (liner) were applied. The effectiveness of these methods, also depending of low k materials with different pore sizes, were investigated by scanning electron microscopy, by barrier integrity investigations and by investigations of barrier diffusion into the dielectric material using TEM and EDX line scan.
|
120 |
Qualitätsansprüche bezüglich des äusseren Erscheinungsbildes von Automobilen der PremiumklasseÖzkul, Muammer January 2009 (has links)
Zugl.: München, Techn. Univ., Diss., 2009
|
Page generated in 0.0755 seconds