Spelling suggestions: "subject:"automatisierung"" "subject:"automatisierungs""
71 |
Methodik zur prozessorientierten Restrukturierung von ArbeitssystemenSchmiedl, Nadja 16 September 2010 (has links)
Die steigende Dynamik sowie der steigende Konkurrenzdruck, dem deutsche und europäische Produktionsunternehmen aufgrund von Individualisierungs- und Globalisierungstendenzen ausgesetzt sind, erfordert neue Konzepte zur Gestaltung effizienter Prozesse und damit konkurrenzfähiger Produkte. Trotz oder gerade wegen eines vielfach hohen Automatisierungsniveaus und der damit verbundenen Komplexität sind viele Arbeitssysteme durch einen hohen Anteil an Personalkosten für technikerhaltende Arbeitsaufgaben geprägt. Die vorliegende Arbeit stellt einen Ansatz vor, wie bestehende automatisierte Arbeitssysteme analysiert, bewertet und bzgl. des Personaleinsatzes optimiert werden können.
|
72 |
VerkehrstelematikKrimmling, Jürgen, Lehnert, Martin 22 May 2019 (has links)
Die Verkehrstelematik, im Englischen als Intelligent Transport Systems (ITS) bezeichnet, kann durch die Verbindung von Telekommunikation, Informatik und Automatisierung wesentlich zur Sicherung der Mobilität beitragen. Dabei kann durch Erfassen, Übermitteln, Verarbeiten und Darstellen von Verkehrsdaten in Telematiksystemen der Verkehr prognostiziert, gesteuert, gelenkt, geleitet und organisiert werden.
An der Fakultät Verkehrswissenschaften „Friedrich List“ der TU Dresden beschäftigt sich das Institut für Verkehrstelematik mit verkehrstelematischen Fragestellungen und Anwendungen. An der Professur für Verkehrsleitsysteme und -prozessautomatisierung stehen dabei Lehre und Forschung in den Themengebieten Verkehrs- und Betriebsleitsysteme, Verkehrssteuerungstechnik, Verkehrsprozessautomatisierung und Verkehrsmanagement sowohl des schienengebundenen als auch des straßengebundenen Verkehrs im Vordergrund.
Um aktuelle Forschungs- und Entwicklungsergebnisse einem breiten Fachpublikum verfügbar zu gestalten, veröffentlicht die Professur mit der Schriftenreihe „Verkehrstelematik“ in loser Folge interessante Forschungsthemen und Beitrage aus ihrem unmittelbaren Wirkungsfeld, der Verkehrstelematik allgemein und darüber hinaus auch Beitrage zu interdisziplinär aufgestellten Fragestellungen. Damit verbunden ist die Hoffnung, dass die aktuellen Forschungsergebnisse in die Praxis einfließen und dabei helfen, den Verkehr flüssiger, ressourcenschonender und effizienter zu gestalten. / Traffic telematics and Intelligent Transport Systems (ITS) can significantly contribute to securing mobility by combining telecommunications, information technology and automation. By capturing, transmitting, processing and displaying traffic data in traffic emblematic systems, the traffic can be predicted, controlled, directed, managed and organized.
The Institute of Transport Telematics at the Faculty of Traffic Sciences 'Friedrich List' of the Technische Universität Dresden (TUD) deals with traffic telematics issues and applications. Teaching and research in the fields of traffic guidance and operation control systems, traffic control technology, process automation and traffic management of both rail-bound and road-bound traffic are in the focus of the Chair of Traffic Control and Process Automation.
In order to make current research and development results available to a broad professional audience, the professorship publishes interesting research topics and contributions from their immediate field of action, namely traffic telematics in general, and also contributions to interdisciplinary issues with the series 'Verkehrstelematik'. Linked to this is the hope that current research findings will be put into practice and help to make traffic smoother, Eco-friendly and more efficient.
|
73 |
Performance Modelling for Optimized Resource Management and Application Deployment in Cloud EnvironmentsUllrich, Markus 25 August 2022 (has links)
Cloud computing is an exciting concept that propels the development of technologies, the creation and expansion of businesses and the rapid prototyping of new ideas. Utilizing the advantages the cloud offers to their fullest potential is not a simple task and thus often users struggle with the technological aspects, lose revenue or do not attempt to benefit from this idea at all.
In this dissertation, we identify the lack of standards for performance descriptions as well as the steep learning curve to get familiar with the cloud, which is further amplified by the abundance of available services, as the most prevalent issues that individuals and companies encounter. We further show the relevance of solving these issues by outlining the expected impact, which includes decreased time and financial detriments for individuals and companies as well as a negative effect on the environment.
To solve the identified problems we propose the development of a cloud broker with three key components that utilize a performance oriented resource and application model to 1) compare arbitrary resources and applications in a fair manner based on general information, collected with standard benchmark tools 2) select the optimal infrastructure for any application by estimating its resource consumption and execution time and 3) automatically create and manage the selected infrastructure as well as the application deployment.
Our contributions to this proposal include the development and test of prototypical proof-of-concept implementations for the three components, the design of the underlying resource and application performance model as well as the selection of appropriate, generic benchmark solutions, which we deployed on two major public clouds using our prototypes.
In an extensive objective-based evaluation we assess that we contributed towards solving all the major issues that we identified to increase the usability and efficiency of cloud computing by enabling a better comprehension of resource and application performance in cloud environments and by reducing the necessary time and effort to deploy arbitrary applications in the cloud. We conclude by interpreting the evaluation results and providing an outlook towards future work.:1 Introduction
2 Challenges
3 Improve Resource Selection and Management in Cloud Environments
4 Cloud Resource Comparison
5 Resource Estimation
6 Cloud Application Execution
7 Overall Evaluation
8 Conclusion
A LFA Artifacts
B Analysis and Results
C PoC Platform / Die Dissertation beschäftigt sich mit der effizienten Nutzung von Cloud Ressourcen zur Beschleunigung der Entwicklung neuer Technologien und Geschäftsmodellen sowie des Rapid Prototypings neuer Ideen. Auf Grund der Komplexität von Cloud Plattformen, stellt die Nutzung derer oft eine große Hürde, speziell für kleine und mittlere Unternehmen dar, weshalb oft Ressourcen verschwendet werden, Prozesse mehr Zeit in Anspruch nehmen als nötig oder erst gar kein Versuch unternommen wird, diese Technologie zu nutzen.
In der Arbeit werden dazu drei Kernprobleme identifiziert und thematisiert. Dies sind Lücken in Bezug auf Standards zur Beschreibung der Performance von Cloud Ressourcen, die Fülle an existierenden Cloud Diensten, sowie die steile Lernkurze bei der Nutzung dieser Dienste.
Zur Lösung der identifizierten Probleme, wird in der Arbeit die Entwicklung einer Cloud Broker Anwendung mit drei Kernkomponenten vorgeschlagen, die ein Performanz-orientiertes Ressourcen- und Anwendungsmodell verwenden, welches es ermöglicht:
1) beliebige Ressourcen und Anwendungen unterschiedlichster Anbieter mit der Hilfe von frei verfügbaren und standardisierten Benchmark Tools zu vergleichen,
2) die passende Infrastruktur für jede auszuführende Anwendung durch Schätzung des Ressourcenbedarfs und der Dauer der Ausführung auszuwählen und
3) die gewählte Infrastruktur automatisch in der Cloud erzeugt und die Anwendung selbstständig ausführt.
Im Rahmen der Dissertation wurden dazu alle drei Kernkomponenten prototypisch implementiert, das zugrundeliegende Ressourcen und Anwendungsmodell designt, sowie geeignete Benchmark Lösungen ausgewählt und umfangreiche Benchmarks auf zwei großen, öffentlichen Cloud Plattformen mit Hilfe der entwickelten Prototypen durchgeführt. In einer umfassenden zielorientierten Evaluation, wird der Beitrag zur Lösung der im Vorfeld identifizierten Probleme bewertet und festgestellt, dass mit den entwickelten Komponenten sowohl die Nutzbarkeit als auch Effizienz von Cloud-Computing insgesamt erhöht werden kann. Dies wird ermöglicht durch ein besseres Verständnis der Ressourcen und Anwendungsperformanz, sowie durch Reduzierung der notwendigen Zeit und des Aufwands für eine Anwendungsausführung in der Cloud. Im Vortrag wird abschließend noch ein Ausblick auf weiterführende Arbeiten gegeben.:1 Introduction
2 Challenges
3 Improve Resource Selection and Management in Cloud Environments
4 Cloud Resource Comparison
5 Resource Estimation
6 Cloud Application Execution
7 Overall Evaluation
8 Conclusion
A LFA Artifacts
B Analysis and Results
C PoC Platform
|
74 |
There are (almost) no robots in journalism. An attempt at a differentiated classification and terminology of automation in journalism on the base of the concept of distributed and gradualised actionMooshammer, Sandra 19 March 2024 (has links)
Human-Machine Communication and fields like journalism studies have been discussing new technological developments in journalism, especially automation technologies like automated writing software. However, existing literature has terminological problems: Terms are not distinctly defined and delimited, different aspects can be referred to with the same term, while different, often misleading, terms exist for the same aspect. As a result, it is often unclear which concept is being referred to. To gain a better understanding and modeling of automation in journalism as well as a theoretical foundation, this paper first describes current problems with terms used in scientific literature and argues that existing automation taxonomies are not fully transferrable to journalism, making a new theoretical basis necessary. Subsequently, Rammert and Schulz-Schaeffer’s concept of distributed and gradualised action is described and proposed as such a theoretical basis for the unification of terminology and conceptual foundations, providing the opportunity to empirically and normatively describe automation as well as delivering necessary theoretical underpinnings. Lastly, the concept is applied to automation in journalism, resulting in a proposed automation concept, suggestions for terminology, and further implications for Human-Machine Communication theory.
|
75 |
Analyse und Automatisierung von inkrementellen elektromagnetischen UmformprozessenLinnemann, Maik 21 December 2022 (has links)
Aktuelle gesellschaftliche und politische Forderungen an die Produktionstechnik wie Nachhaltigkeit und Klimaschutz können bei der Fertigung flächiger Bauteile durch
innovative Blechumformverfahren erreicht werden. Durch geschickte Kombinationen von inkrementellen und elektromagnetischen Fertigungsverfahren besteht hier besonders
großes Potential. Aus diesem Grund wird im Rahmen dieser Arbeit die Erweiterung der elektromagnetischen Umformung um einen inkrementellen Ansatz untersucht.
Dazu wird ein geeigneter Versuchsaufbau entwickelt und für eine ausführliche Prozessanalyse genutzt. Zusätzlich werden effiziente numerische Prozessmodelle
entwickelt um eine schnelle Bestimmung weiterer Prozessgrößen zu ermöglichen. Im Ergebnis resultieren Hinweise mit denen das neuartige Verfahren auf beliebige
Bauteile angewendet werden kann.
|
76 |
Scheduling by High Performance Computing - An example for AGV considering dynamic transport carrier transfersBoden, Patrick 14 March 2024 (has links)
Floor-based Automated Guided Vehicles (AGV) are important for automating transportation tasks in semiconductor manufacturing facilities. They are either used as homogenous systems in low throughput areas (see Ndiaye et al., 2016) or complementarily with ceiling-mounted Overhead Hoist Transport (OHT) systems (see Keil et al., 2018). AGV systems provide the option to exchange transport carriers between its vehicles during transport execution. This increases the flexibility to allocate tasks to the vehicles and could lead to better system performance.
|
77 |
Towards accurate and efficient live cell imaging data analysisHan, Hongqing 29 January 2021 (has links)
Dynamische zelluläre Prozesse wie Zellzyklus, Signaltransduktion oder Transkription zu analysieren wird Live-cell-imaging mittels Zeitraffermikroskopie verwendet.
Um nun aber Zellabstammungsbäume aus einem Zeitraffervideo zu extrahieren, müssen die Zellen segmentiert und verfolgt werden können. Besonders hier, wo lebende Zellen über einen langen Zeitraum betrachtet werden, sind Fehler in der Analyse fatal: Selbst eine extrem niedrige Fehlerrate kann sich amplifizieren, wenn viele Zeitpunkte aufgenommen werden, und damit den gesamten Datensatz unbrauchbar machen.
In dieser Arbeit verwenden wir einen einfachen aber praktischen Ansatz, der die Vorzüge der manuellen und automatischen Ansätze kombiniert. Das von uns entwickelte Live-cell-Imaging Datenanalysetool ‘eDetect’ ergänzt die automatische Zellsegmentierung und -verfolgung durch Nachbearbeitung. Das Besondere an dieser Arbeit ist, dass sie mehrere interaktive Datenvisualisierungsmodule verwendet, um den Benutzer zu führen und zu unterstützen. Dies erlaubt den gesamten manuellen Eingriffsprozess zu rational und effizient zu gestalten. Insbesondere werden zwei Streudiagramme und eine Heatmap verwendet, um die Merkmale einzelner Zellen interaktiv zu visualisieren. Die Streudiagramme positionieren ähnliche Objekte in unmittelbarer Nähe. So kann eine große Gruppe ähnlicher Fehler mit wenigen Mausklicks erkannt und korrigiert werden, und damit die manuellen Eingriffe auf ein Minimum reduziert werden. Die Heatmap ist darauf ausgerichtet, alle übersehenen Fehler aufzudecken und den Benutzern dabei zu helfen, bei der Zellabstammungsrekonstruktion schrittweise die perfekte Genauigkeit zu erreichen. Die quantitative Auswertung zeigt, dass eDetect die Genauigkeit der Nachverfolgung innerhalb eines akzeptablen Zeitfensters erheblich verbessern kann. Beurteilt nach biologisch relevanten Metriken, übertrifft die Leistung von eDetect die derer Tools, die den Wettbewerb ‘Cell Tracking Challenge’ gewonnen haben. / Live cell imaging based on time-lapse microscopy has been used to study dynamic cellular behaviors, such as cell cycle, cell signaling and transcription.
Extracting cell lineage trees out of a time-lapse video requires cell segmentation and cell tracking. For long term live cell imaging, data analysis errors are particularly fatal. Even an extremely low error rate could potentially be amplified by the large number of sampled time points and render the entire video useless.
In this work, we adopt a straightforward but practical design that combines the merits of manual and automatic approaches. We present a live cell imaging data analysis tool `eDetect', which uses post-editing to complement automatic segmentation and tracking. What makes this work special is that eDetect employs multiple interactive data visualization modules to guide and assist users, making the error detection and correction procedure rational and efficient. Specifically, two scatter plots and a heat map are used to interactively visualize single cells' visual features. The scatter plots position similar results in close vicinity, making it easy to spot and correct a large group of similar errors with a few mouse clicks, minimizing repetitive human interventions. The heat map is aimed at exposing all overlooked errors and helping users progressively approach perfect accuracy in cell lineage reconstruction. Quantitative evaluation proves that eDetect is able to largely improve accuracy within an acceptable time frame, and its performance surpasses the winners of most tasks in the `Cell Tracking Challenge', as measured by biologically relevant metrics.
|
78 |
Fachspezifische Varianz der Formalisierbarkeit von Forschungsprozessen. / Eine vergleichende Untersuchung am Beispiel der Editionsphilologie und der Klimaforschung.Tschida, Ulla 13 November 2019 (has links)
Für die Konzeption sozio-technischer Systeme zur wissenschaftlichen Erkenntnisgenerierung ist das Wissen über die spezifischen Inhalte und Bedingungen der Arbeit einer Fachgemeinschaft essenziell. Im Kontext der Automatisierung von Wissensproduktion ist unklar, welche fachspezifischen Faktoren die Möglichkeiten einer Arbeitsteilung zwischen Mensch und Maschine beeinflussen. In der vorliegenden Arbeit wird eine grundlegende Voraussetzung für die Automatisierung von Forschungsprozessen, nämlich die Formalisierbarkeit typischer Handlungen und Wissensbestände, hinsichtlich ihrer fachspezifischen Bedingungen untersucht. Dafür wurde ein qualitativer Vergleich der Evidenzkonstruktion zweier Fachgebiete, der Editionsphilologie und der Klimaforschung, durchgeführt. Um deren Forschungsprozesse systematisch vergleichen und Zusammenhänge zwischen den Eigenschaften eines Forschungsprozesses und den Möglichkeiten seiner Formalisierbarkeit empirisch untersuchen zu können, wurde ein Vergleichsrahmen entwickelt, der auf dem wissenschaftssoziologischen Konzept der epistemischen Bedingungen beruht. Die fachspezifischen Bedingungen des Forschungshandelns stellen einen Erklärungsansatz für Varianten der Wissensproduktion und damit auch für unterschiedlich formalisierbare Forschungsprozesse dar. Es konnte gezeigt werden, dass insbesondere der Grad an Kodifizierung des Wissens einen wesentlichen Einfluss auf das Auftreten bzw. die Abfolge unterschiedlich formalisierbarer Handlungstypen und Wissensbestände hat. Der Anteil persönlicher Perspektive in der Evidenzkonstruktion und der Grad der Zerlegbarkeit eines Forschungsprozesses sind ebenfalls wichtige Faktoren für die Möglichkeiten der Delegation von Handlungen an Maschinen. Desweiteren konnte gezeigt werden, dass selbst bei einem hohen Formalisierungsgrad das informelle menschliche Handeln das wesentliche Komplement automatisierter Abläufe darstellt und dass die Formalisierbarkeit einer zeitlichen Dynamik unterliegt. / Knowing about the field-specific content and conditions of work in a scientific discipline is essential for the design of socio-technical systems used for the production of scientific knowledge. In the context of automated knowledge production, it remains unclear which field-specific factors influence the possibilities to distribute labour between humans and machines. This study analyses a fundamental prerequisite for the automation of research processes, namely the possibility to formalise typical actions and knowledge, with regard to its field-specific conditions. A qualitative approach is used to compare the construction of evidence in two scientific fields, textual studies and climate research. In order to systematically compare research processes and to empirically investigate correlations between the properties of a research process and the possibilities of its formalisation, a comparative framework based on the sociological concept of epistemic conditions was developed. Field-specific conditions of doing research represent an explanatory approach for variants of knowledge production and thus for variant degrees of formalised processes. Results show that the degree of codification of knowledge has a significant influence on the occurrence and on the sequence of types of action and of knowledge resources with variant degrees of formalisation. In addition, the role of personal interpretation in problem formulation and construction of empirical evidence and the degree of decomposability of a research process are decisive factors for being able to delegate actions to machines. Furthermore, the study shows that a high degree of formalisation requires informal human action to complement automated processes and that formalisability is subject to temporal dynamics during research processes.
|
79 |
Elektronen-Holographische Tomographie zur 3D-Abbildung von elektrostatischen Potentialen in Nanostrukturen / Electron Holographic Tomography for the 3D Mapping of Electrostatic Potentials in Nano-StructuresWolf, Daniel 14 February 2011 (has links) (PDF)
Die Aufklärung der grundlegenden Struktur-Eigenschaft-Beziehung von Materialen auf der (Sub-)Nanometerskala benötigt eine leistungsfähige Transmissionselektronenmikroskopie. Dabei spielen insbesondere die durch die Nanostruktur hervorgerufenen intrinsischen elektrischen und magnetischen Feldverteilungen eine entscheidende Rolle. Die Elektronen-Holographische Tomographie (EHT), d.h. die Kombination von off-axis Elektronenholographie (EH) und Elektronentomographie (ET), bietet einen einzigartigen Zugang zu dieser Information, weil sie die quantitative 3D-Abbildung elektrostatischer Potentiale und magnetostatischer Vektorfelder bei einer Auflösung von wenigen (5-10) Nanometern ermöglicht.
Für die Rekonstruktion des 3D-Potentials erfolgt zunächst die Aufzeichnung einer Kippserie von Hologrammen im Elektronenmikroskop. Durch die anschließende Rekonstruktion der Objektwelle aus jedem Hologramm liegt eine Amplituden- und eine Phasenkippserie vor. Die Phasenkippserie wird schließlich zur tomographischen 3D-Rekonstruktion des elektrostatischen Potentials verwendet.
Im Rahmen dieser Arbeit wurde die EHT von einer manuell aufwendigen zu einer weitestgehend automatisierten Methode entwickelt. Die Automatisierung beinhaltet die Entwicklung des ersten Softwarepaketes zur computergestützten Aufzeichnung einer holographischen Kippserie (THOMAS). Verglichen mit rein manueller Vorgehensweise verkürzt sich mit THOMAS die Dauer für die Aufnahme einer holographischen Kippserie, bestehend aus Objekt- und Leerhologrammen, auf weniger als ein Drittel. Mittlerweile beträgt die Aufnahmezeit im Mittel etwa 2-3 Stunden. Auch die holographische Rekonstruktion und zugehörige Operationen zur Entfernung von Artefakten in den Phasenbildern ist durch entsprechende
Prozeduren, welche für eine gesamte Kippserie in einem Schritt anwendbar sind, automatisiert.
Zudem ermöglichen erst spezielle selbstentwickelte Ausrichtungsmethoden die exakte Verschiebungskorrektur von Kippserien der hier untersuchten stabförmigen Objekte (Nanodrähte, FIB-präparierte Nadeln). Für die tomographische Rekonstruktion wurde in dieser Arbeit die Simultane Iterative Rekonstruktionstechnik (SIRT) zur W-SIRT weiterentwickelt. In der W-SIRT wird statt einer Einfachen eine Gewichtete Rückprojektion bei jeder Iteration verwendet, was eine bessere Konvergenz der W-SIRT gegenüber der SIRT zur Folge hat. Wie in anderen ET-Techniken auch, ist in der EHT für die Rekonstruktion des dreidimensionalen Tomogramms meist nur aus Projektionen innerhalb eines begrenzten Winkelbereichs möglich. Dies führt in den Tomogrammen zu einem sogenannten Missing Wedge, welcher neben dem Verlust von Au ösung auch Artefakte verursacht. Daher wird eine Methode vorgestellt, wie sich das Problem des Missing Wedge bei geeigneten Objekten durch Ausnutzung von Symmetrien entschärfen lässt.
Das mittels EHT rekonstruierte 3D-Potential gibt Aufschluss über äußere (Morphologie) und innere Objektstruktur, sowie über das Mittlere Innere Potential (MIP) des Nanoobjektes. Dies wird am Beispiel von epitaktisch gewachsenen Nanodrähten (nanowires, NWs) aus GaAs und AlGaAs demonstriert.
Anhand entsprechender Isopotentialflächen im 3D-Potential lässt sich die 3D-Morphologie studieren: Die Facetten an der Oberfläche der NWs erlauben Rückschlüsse über die dreidimensionale kristalline Struktur. Des Weiteren zeigt das rekonstruierte 3D-Potential eines AlGaAs/GaAs-Nanodrahtes deutlich dessen Kern/Schale-Struktur, da sich GaAs-Kern und AlGaAs-Schale bezüglich des MIP um 0.61 V unterscheiden.
Im Falle dotierter Halbleiterstrukturen mit pn-Übergang (z.B. Transistoren) bietet die mittels EHT rekonstruierte Potentialverteilung auch Zugang zur Diffusionsspannung am pn-Übergang. Diese Größe kann ohne Projektions- und Oberflächeneffekte (dead layer) im Innern der Probe gemessen und in 3D analysiert werden. Für drei nadelförmig mittels FIB präparierte Proben (Nadeln) werden die Diffusionsspannungen bestimmt: Die Messungen ergeben für zwei Silizium-Nadeln jeweils 1.0 V und 0.5 V, sowie für eine Germanium-Nadel 0.4 V.
Im Falle der GaAs- und AlGaAs-Nanodrähte reduziert der Missing Wedge die Genauigkeit der mittels EHT gewonnenen 3D-Potentiale merklich, insbesondere bezüglich der MIP-Bestimmung. Dagegen stimmen die Potentiale der Germanium und Silizium-Nadeln exzellent mit theoretischen Werten überein, wenn der Missing Wedge durch Ausnutzung der Objektsymmetrie behoben wird. / Revealing the essential structure-property relation of materials on a (sub-)nanometer scale requires a powerful Transmission Electron Microscopy (TEM). In this context, the intrinsic electrostatic and magnetic fields, which are related to the materials nano structure, play a crucial role. Electron-holographic tomography (EHT), that is, the combination of off-axis electron holography (EH) with electron tomography (ET), provides an unique access to this information, because it allows the quantitative 3D mapping of electrostatic potentials and magnetostatic vector fields with a resolution of a few (5-10) nanometers.
The reconstruction of the 3D potential starts with the acquisition of a hologram tilt series in the electron microscope. The subsequent reconstruction of the electron object wave from each hologram yields a tilt series in both amplitude and phase images. Finally, the phase tilt series is used for the tomographic reconstruction of the 3D potential.
In this work, EHT has been developed from a manual and time-consuming approach to a widely automated method. The automation includes the development of the first software package for computer-controlled acquisition of holographic tilt series (THOMAS), a prerequisite for efficient data collection. Using THOMAS, the acquisition time for a holographic tilt series, consisting of object and reference holograms, is reduced by more than a factor of three, compared to the previous, completely manual approaches. Meanwhile, the acquisition takes 2-3 hours on average. In addition, the holographic reconstruction and corresponding methods for removal of artefacts in the phase images have been automated, now including one-step procedures for complete tilt series.
Furthermore, specific self-developed alignment routines facilitate the precise correction of displacements within the tilt series of the rod-shaped samples, which are investigated here (e.g. nanowires, FIB needles). For tomographic reconstruction, a W-SIRT algorithm based on a standard simultaneous iterative reconstruction technique (SIRT) has been developed. Within the W-SIRT, a weighted back-projection instead of a simple back-projection is used. This yields a better convergence of the W-SIRT compared to the SIRT.
In most cases in EHT (likewise in other ET techniques), the reconstruction of the three-dimensional tomogram is only feasible from projections covering a limited tilt range. This leads to a so-called missing wedge in the tomogram, which causes not only a lower resolution but also artefacts. Therefore, a method is presented, how to solve the missing wedge problem for suitable objects by exploiting symmetries.
The 3D potential offers the outer (morphology) and inner structure, as well as the mean inner potential (MIP) of the nano object. This is shown by means of EHT on epitaxially grown nanowires (NWs) of GaAs and AlGaAs. The 3D morphology is studied using the corresponding iso-surfaces of the 3D potential: The facets on the nanowires surface allow conclusions about the crystalline structure. Moreover, the reconstructed 3D potential of a AlGaAs/GaAs NW clearly shows its core/shell structure due to the MIP difference between GaAs and AlGaAs of 0.61 V.
In case of doped semiconductor structures with pn-junctions (e.g. transistors) the potential distribution, reconstructed by EHT, also provides access to the built-in voltage across the pn-junction. The built-in voltage can be analyzed in 3D and measured without projection and surface effects (e.g. dead layers) within the sample. The measurements in three needle-shaped specimens, prepared by FIB, yield for two silicon needles 1.0 V and 0.5 V, and for a germanium needle 0.4 V.
In case of the GaAs and AlGaAs nanowires the missing wedge reduces the accuracy of the reconstructed 3D potentials significantly, in particular in terms of MIP determination. However, the potentials of the silicon and germanium needles are in excellent agreement with theoretical values, when the object symmetry is exploited to fill-up the missing wedge.
|
80 |
Design Space Exploration for Building Automation SystemsÖzlük, Ali Cemal 18 December 2013 (has links) (PDF)
In the building automation domain, there are gaps among various tasks related to design engineering. As a result created system designs must be adapted to the given requirements on system functionality, which is related to increased costs and engineering effort than planned. For this reason standards are prepared to enable a coordination among these tasks by providing guidelines and unified artifacts for the design. Moreover, a huge variety of prefabricated devices offered from different manufacturers on the market for building automation that realize building automation functions by preprogrammed software components. Current methods for design creation do not consider this variety and design solution is limited to product lines of a few manufacturers and expertise of system integrators. Correspondingly, this results in design solutions of a limited quality. Thus, a great optimization potential of the quality of design solutions and coordination of tasks related to design engineering arises. For given design requirements, the existence of a high number of devices that realize required functions leads to a combinatorial explosion of design alternatives at different price and quality levels. Finding optimal design alternatives is a hard problem to which a new solution method is proposed based on heuristical approaches. By integrating problem specific knowledge into algorithms based on heuristics, a promisingly high optimization performance is achieved. Further, optimization algorithms are conceived to consider a set of flexibly defined quality criteria specified by users and achieve system design solutions of high quality. In order to realize this idea, optimization algorithms are proposed in this thesis based on goal-oriented operations that achieve a balanced convergence and exploration behavior for a search in the design space applied in different strategies. Further, a component model is proposed that enables a seamless integration of design engineering tasks according to the related standards and application of optimization algorithms.
|
Page generated in 0.0596 seconds