• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 7
  • Tagged with
  • 26
  • 26
  • 16
  • 10
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Nanoporous block copolymer stamps: design and applications

Hou, Peilong 10 December 2019 (has links)
This thesis focuses on the surface patterning by using nanoporous block copolymer (BCP) stamps. Polystyrene‐block‐poly(2‐vinylpyridine) (PS‐b‐P2VP) was used as model BCP. Nanoporous BCP stamps were fabricated by replication of lithographically patterned silicon molds. Nanopores inside of BCP stamps were generated by swelling‐induced pore formation. A method for scanner-based capillary stamping (SCS) with spongy nanoporous BCP stamps was developed. First, in the course of stamps design using replication molding of PS-b-P2VP against surface-modified macroporous silicon molds, PS-b-P2VP fiber rings remaining on the macroporous silicon molds were obtained that allow immobilization of water drops on the hydrophobically modified surfaces of the macroporous silicon molds. Water drops immobilized by these rings can be prevented from dewetting within the PS‐b‐P2VP fiber rings. Second, after spongy nanoporous PS-b-P2VP stamps had been obtained, preliminary experiments with non-inked PS-b-P2VP stamps revealed that parts of the stamps’ contact elements can be lithographically transferred onto counterpart surfaces. As a result, arrays of nanostructured submicron PS‐b‐P2VP dots with heights of ∼100 nm onto silicon wafers and glass slides were produced. Lastly, the SCS technique was developed, which overcomes the limitation of time-consuming re-inking procedures associated with classical soft lithography including microcontact printing (µCP) and polymer pen lithography (PPL) with solid stamps, as well as the limitations regarding throughput of scanning probe‐based serial writing approaches such as nanoscale dispensing (NADIS) and other micropipetting techniques. In addition, sizes of stamped droplets can be controlled by adjusting surface wettability and dwell time.
12

Synthesis and Characterization of Functional Amphiphilic Gradient Copolymers by Atom Transfer Radical Polymerization

Schwitke, Sandra 30 October 2014 (has links)
The purpose of this work was the synthesis of functional amphiphilic gradient copolymers by means of controlled radical polymerizations, more precisely Atom Transfer Radical Polymerization. Two different monomer combinations, tert- and n-butyl methacrylate and tert-butyl and benzyl methacrylate, were copolymerized. In a first step seven different linear statistical copolymers were synthesized by means of batch polymerization. They were used as comparative material and the analysis of the reaction kinetic yielded the effective rate constants and the copolymerization parameters of the monomers in the particular monomer systems. Furthermore required for gradient polymer syntheses AB-di-block copolymers were synthesized as a second kind of comparative material. With the results of the kinetic analysis the monomer addition programs for the semibatch polymerizations were calculated to prepare gradient copolymers. Four different gradient copolymers with different compositions of tBMA and nBMA (ftBMA= 0.5, 0.65, 0.75, 0.85) and one gradient copolymer of tBMA and BzMA (ftBMA= 0.5) were synthesized. All semibatch reactions proceeded controlled, i. e. with mostly suppressed termination reactions. The compositions of the resulting copolymers exhibited ''double-gradients''. The point of change of the compositions were located at 16%, respectively 11% of conversion. The effective compositional gradients φ = dF1/dp were φ = 0.53, 0.46, 0.28, 0.15 and 0.43. A systematic correlation between the thermal behavior of the gradient copolymers and their composition was not found, as opposed to the statistical and the di-block copolymers. Semibatch synthesis with online infrared-spectroscopy observation to control the monomer feed during the synthesis were used for the polymerization of gradient copolymers. It was not possible to calculate the change of compositions of the polymers because it was not known how much monomer was injected at a certain time of the polymerization. A second problem was that the experimental set-up was not gas-tight. Hence, oxygen led to termination reactions. Three different kinds of hydrolysis were investigated for the cleavage of the tert-butyl groups on the polymer chains. The obtained gradient copolymers were hydrolyzed with methanesulfonic acid to obtain the intended amphiphilic polymer chains. All reactions proceeded with quantitative conversion. Hence, functional amphiphilic copolymers were obtained.
13

Aufbewahrung digitaler Daten im Kontext des Informationszeitalters und aktueller Entwicklungen im Cloud Computing: Eine multiperspektivische Analyse aus Sicht von Unternehmen und Endanwendern

Burda, Daniel 05 November 2015 (has links)
Daten bilden im Informationszeitalter die Grundlage unternehmerischen, gesellschaftlichen und individuellen Handelns und werden häufig auch als ein immaterielles (Wirtschafts-)Gut verstanden. Die globale Datenmenge wächst dabei exponentiell und verdoppelt sich laut Schätzungen ca. alle zwei Jahre. Gleichzeitig mit diesem rasanten Datenwachstum und resultierend aus den technologischen Fortschritten verändert sich auch die zur Darstellung und Speicherung von digitalen Daten notwendige Hard- und Software. Dies führt zu der Situation, dass Daten in großen Mengen beinahe beiläufig erzeugt werden, wogegen deren langfristige Nutzbarkeit und Erhaltung jedoch aktiv sichergestellt werden muss. Während diese Problematik bereits seit geraumer Zeit auf der Forschungsagenda der Bibliothekswissenschaftler und Archivare steht, dringt sie in zunehmendem Maße auch in den Kontext der Wirtschaftsinformatik und in den Fokus von Unternehmen vor, welche sich mit verschärften Compliance-Anforderungen, Aufbewahrungsanforderungen und Rechtsstreitigkeiten konfrontiert sehen, wodurch die langfristige Verfügbarkeit von digitalen Informationen erforderlich wird. Aber nicht nur Unternehmen sind mit den Herausforderungen konfrontiert, die mit dem langfristigen Erhalt digitaler Informationen verbunden sind. Auch im privaten Bereich stellt sich die Frage, wie Endanwender den Zugriff auf ihre persönlichen und für sie zum Teil unersetzlichen Daten wie Fotos oder Dokumente langfristig sicherstellen können. Die vorliegende Dissertation soll einen Erkenntnisbeitrag zum skizzierten Spannungsfeld und den Herausforderungen der Archivierung im Informationszeitalter leisten. Dazu werden Fragestellungen sowohl aus der Perspektive von Unternehmen als auch aus derjenigen von privaten Endanwendern und Cloud-Dienstleistern im Rahmen von einzelnen Forschungsbeiträgen untersucht.
14

Semantik und Sentiment: Konzepte, Verfahren und Anwendungen von Text-Mining

Neubauer, Nicolas 06 June 2014 (has links)
Diese Arbeit befasst sich mit zwei Themenbereichen des Data Mining beziehungsweise Text Mining, den zugehörigen algorithmischen Verfahren sowie Konzepten und untersucht mögliche Anwendungsszenarien. Auf der einen Seite wird das Gebiet der semantischen Ähnlichkeit besprochen. Kurz, der Frage, wie algorithmisch bestimmt werden kann, wie viel zwei Begriffe oder Konzepte miteinander zu tun haben. Die Technologie um das Wissen, dass etwa "Regen" ein Bestandteil von "Wetter" sein kann, ermöglicht verschiedenste Anwendungen. In dieser Arbeit wird ein Überblick über gängige Literatur gegeben, das Forschungsgebiet wird grob in die zwei Schulen der wissensbasierten und statistischen Methoden aufgeteilt und in jeder wird ein Beitrag durch Untersuchung vorhandener und Vorstellung eigener Ähnlichkeitsmaße geleistet. Eine Studie mit Probanden und ein daraus entstandener Datensatz liefert schließlich Einblicke in die Präferenzen von Menschen bezüglich ihrer Ähnlichkeitswahrnehmung. Auf der anderen Seite steht das Gebiet des Sentiment Mining, in dem versucht wird, algorithmisch aus großen Sammlungen unstrukturierten Texts, etwa Nachrichten von Twitter oder anderen sozialen Netzwerken, Stimmungen und Meinungen zu identifizieren und zu klassifizieren. Nach einer Besprechung zugehöriger Literatur wird der Aufbau eines neuen Testdatensatzes motiviert und die Ergebnisse der Gewinnung dieses beschrieben. Auf dieser neuen Grundlage erfolgt eine ausführliche Auswertung einer Vielzahl von Vorgehensweisen und Klassifikationsmethoden. Schließlich wird die praktische Nutzbarkeit der Ergebnisse anhand verschiedener Anwendungsszenarien bei Produkt-Präsentationen sowie Medien- oder Volksereignissen wie der Bundestagswahl nachgewiesen.
15

Transcription of the Bleek and Lloyd Collection using the Bossa Volunteer Thinking Framework

Munyaradzi, Ngoni 01 November 2013 (has links)
The digital Bleek and Lloyd Collection is a rare collection that contains artwork, notebooks and dictionaries of the earliest habitants of Southern Africa. Previous attempts have been made to recognize the complex text in the notebooks using machine learning techniques, but due to the complexity of the manuscripts the recognition accuracy was low. In this research, a crowdsourcing based method is proposed to transcribe the historical handwritten manuscripts, where volunteers transcribe the notebooks online. An online crowdsourcing transcription tool was developed and deployed. Experiments were conducted to determine the quality of transcriptions and accuracy of the volunteers compared with a gold standard. The results show that volunteers are able to produce reliable transcriptions of high quality. The inter-transcriber agreement is 80% for |Xam text and 95% for English text. When the |Xam text transcriptions produced by the volunteers are compared with the gold standard, the volunteers achieve an average accuracy of 69.69%. Findings show that there exists a positive linear correlation between the inter-transcriber agreement and the accuracy of transcriptions. The user survey revealed that volunteers found the transcription process enjoyable, though it was difficult. Results indicate that volunteer thinking can be used to crowdsource intellectually-intensive tasks in digital libraries like transcription of handwritten manuscripts. Volunteer thinking outperforms machine learning techniques at the task of transcribing notebooks from the Bleek and Lloyd Collection.
16

Learning with Recurrent Neural Networks / Lernen mit Rekurrenten Neuronalen Netzen

Hammer, Barbara 15 September 2000 (has links)
This thesis examines so called folding neural networks as a mechanism for machine learning. Folding networks form a generalization of partial recurrent neural networks such that they are able to deal with tree structured inputs instead of simple linear lists. In particular, they can handle classical formulas - they were proposed originally for this purpose. After a short explanation of the neural architecture we show that folding networks are well suited as a learning mechanism in principle. This includes three parts: the proof of their universal approximation ability, the aspect of information theoretical learnability, and the examination of the complexity of training. Approximation ability: It is shown that any measurable function can be approximated in probability. Explicit bounds on the number of neurons result if only a finite number of points is dealt with. These bounds are new results in the case of simple recurrent networks, too. Several restrictions occur if a function is to be approximated in the maximum norm. Afterwards, we consider briefly the topic of computability. It is shown that a sigmoidal recurrent neural network can compute any mapping in exponential time. However, if the computation is subject to noise almost the capability of tree automata arises. Information theoretical learnability: This part contains several contributions to distribution dependent learnability: The notation of PAC and PUAC learnability, consistent PAC/ PUAC learnability, and scale sensitive versions are considered. We find equivalent characterizations of these terms and examine their respective relation answering in particular an open question posed by Vidyasagar. It is shown at which level learnability only because of an encoding trick is possible. Two approaches from the literature which can guarantee distribution dependent learnability if the VC dimension of the concept class is infinite are generalized to function classes: The function class is stratified according to the input space or according to a so-called luckiness function which depends on the output of the learning algorithm and the concrete training data. Afterwards, the VC, pseudo-, and fat shattering dimension of folding networks are estimated: We improve some lower bounds for recurrent networks and derive new lower bounds for the pseudodimension and lower and upper bounds for folding networks in general. As a consequence, folding architectures are not distribution independent learnable. Distribution dependent learnability can be guaranteed. Explicit bounds on the number of examples which guarantee valid generalization can be derived using the two approaches mentioned above. We examine in which cases these bounds are polynomial. Furthermore, we construct an explicit example for a learning scenario where an exponential number of examples is necessary. Complexity: It is shown that training a fixed folding architecture with perceptron activation function is polynomial. Afterwards, a decision problem, the so-called loading problem, which is correlated to neural network training is examined. For standard multilayer feed-forward networks the following situations turn out to be NP-hard: Concerning the perceptron activation function, a classical result from the literature, the NP-hardness for varying input dimension, is generalized to arbitrary multilayer architectures. Additionally, NP-hardness can be found if the input dimension is fixed but the number of neurons may vary in at least two hidden layers. Furthermore, the NP-hardness is examined if the number of patterns and number of hidden neurons are correlated. We finish with a generalization of the classical NP result as mentioned above to the sigmoidal activation function which is used in practical applications.
17

Entwicklung und Evaluation eines elektronischen Systems zur Unterstützung der Informationsverarbeitung in pflegerischen Dienstübergaben

Flemming, Daniel 16 December 2015 (has links)
Pflegerische Dienstübergaben in Einrichtungen des Gesundheitswesens stellen für die Patientensicherheit und die kontinuierliche Versorgung von Patienten zentrale, aber gefährdete Kommunikationsszenarien dar. Die Akteure übergeben dabei nicht nur relevante Detailinformationen, sondern insbesondere auch die Verantwortung über die Versorgung des einzelnen Patienten. Zu diesem Zweck verständigen sie sich auf ein gemeinsames Bild oder mentales Modell zu dem klinischen Fall und dessen Versorgung. Es sind somit neben den kommunikativen insbesondere auch kognitive Prozesse in Dienstübergaben von Bedeutung. Vor diesem Hintergrund zielt die vorliegende Arbeit darauf ab, mithilfe eines neuartigen Ansatzes in Form einer kognitiven Karte des klinischen Falls innerhalb einer erweiterten Elektronischen Patientenakte die menschliche Informationsverarbeitung in Dienstübergaben zu unterstützen. Die kognitive Karte soll sowohl die frühen kognitiven Prozesse wie Aufmerksamkeit und Wahrnehmung, als auch die nachfolgenden kognitiven Prozesse wie Entscheiden und Planen fördern. Die Arbeit beschreibt die Anforderungsanalyse, die Systementwicklung und eine erste initiale Evaluation der Gebrauchstauglichkeit und der kognitiven Unterstützung des entwickelten Prototypens zur Darstellung kognitiver Karten im Rahmen von pflegerischen Dienstübergaben.
18

Evaluation der Qualität von Epikutantestungen im Rahmen des Hautarztverfahrens / Evaluation of the quality of patch testing as part of the dermatologist's procedure

Mentzel, Franziska 20 April 2017 (has links)
Epikutantestungen stellen einen wesentlichen Eckpfeiler in der berufsdermatologischen Diagnostik dar. Im Forschungsprojekt EVA_Haut wurden im Rahmen des Hautarztverfahrens durchgeführte Epikutantestungen erstmals im Sinne einer Qualitätsprüfung systematisch analysiert. Ziel war es die leitliniengerechte Durchführung unter den besonderen Rahmenbedingungen des ambulanten Hautarztverfahrens zu überprüfen. Wesentliche Beurteilungskriterien sind die Indikationsstellung, Durchführung, leitliniengerechte Dokumentation und die Auswahl und der Umfang der Testungen in Abhängigkeit vom vorliegenden Beruf sowie die Beurteilung der klinischen und beruflichen Relevanz bei vorliegender Sensibilisierung. Mittels bundesweiter randomisierter Quotenstichprobe (N=1600) anteilig bezogen auf alle UV-Träger wurden ca. 10 % der jährlichen BK-5101-Verdachtsmeldungen analysiert (Rekrutierungszeitraum 4. Quartal 2007). Es konnten N=1543 Fälle ausgewertet werden. Die Hautarztberichte, die im einjährigen Nachbeobachtungszeitraum erstattet worden sind, wurden anonymisiert durch ABD-zertifizierte Gutachter mittels eines Gutachterfragebogens evaluiert. In N=1135 Fällen wurde eine Epikutantestung durchgeführt. Getestet wurde in fast 90% der Fälle im Zusammenhang mit dem Erstbericht, im Sinne einer zeitnahen diagnostischen Abklärung der beim Versicherten vorliegenden Hauterkrankung. Es erfolgte in 86,7% (n=995) eine leitliniengerechte Dokumentation. Die Hauptkritikpunkte in den übrigen 13,3% (n=147) waren fehlende Angaben zum Zeitpunkt der Testpflasterabnahme bzw. Ablesezeitpunkten, nicht standardisierte Formen der Dokumentation der Testreaktionen sowie unvollständige/nicht nachvollziehbare Angaben zu getesteten Allergenen und Konzentrationen. In den analysierten Fällen wurde die Forderung, nicht unter floriden Hautveränderungen zu testen, überwiegend berücksichtigt. Das berufliche Spektrum wurde in etwas mehr als 40% der Fälle, in denen eine Epikutantestung erfolgte, abgedeckt, in 40% wurde es als unvollständig eingestuft, in knapp 10% als zu umfangreich. Bei dokumentierter Sensibilisierung (N=706) erfolgte in der Mehrheit der Fälle (63,5%; n=448) keine Beurteilung der klinischen und beruflichen Relevanz. Die Ergebnisse der Arbeit zeigen, dass die Empfehlungen zur Durchführung von Epikutantestungen im Rahmen des Hautarztverfahrens durch die niedergelassenen Kollegen überwiegend berücksichtigt werden. Die Formulare F6050 und F6052 sind gute Instrumente zur Erfassung der berufsdermatologisch-allergologisch relevanten Informationen zur Indikationsstellung und Umfang einer ECT. Deutliches Verbesserungspotential besteht in der Auswahl der Allergene zur Abbildung des beruflichen Spektrums und in der Beurteilung der klinischen und beruflichen Relevanz, z.B. durch eine dezidierte Abfrage der Relevanz im Hautarztbericht. Angestoßen durch die Ergebnisse dieser Studie ist dies jüngst durch die gesetzliche Unfallversicherung umgesetzt worden (01.01.2016).
19

Methodenentwicklung zur GIS-gestützten Standortanalyse von Solaranlagen auf Grundlage hochauflösender Laserscandaten / Developing methods for GIS-based site analysis of solar systems based on high-resolution laser scan data

Ludwig, Dorothea 08 March 2016 (has links)
Ziel der Arbeit ist die Methodenentwicklung zur Berechnung des Solarenergiepotenzials auf Dachflächen für sämtliche Gebäude eines großen Gebiets (Stadt, Landkreis) auf Grundlage von Laserscandaten. Die Methode zur Solarpotenzialberechnung wurde mit dem Hintergrund des notwendigen Handlungsbedarfs an Maßnahmen für den Klimaschutz entwickelt. Die Ausgabe des Solarpotenzials auf Dachflächen für alle Gebäude einer Verwaltungseinheit liefert flächendeckende und neutrale Informationen für den Bürger und die Verwaltung. Insbesondere die solare Nutzung auf den keiner Flächenkonkurrenz unterliegenden Dachflächen birgt enormes Potenzial und liefert einen wichtigen Beitrag zur Energiewende. Das Ergebnis dieser Arbeit präsentiert eine Methode, über die eine automatisierte Berechnung des Solarpotenzials auf Dachflächen auf Basis von Laserscandaten mit hoher Genauigkeitsausgabe für große Region realisierbar ist. Die Methode besteht aus sechs Prozessschritten. Es handelt sich um die Datenaufbereitung, die Selektion der homogenen Dachteilflächenbereiche, die Einstrahlungsanalyse, die Verschattungsableitung und die Berechnung des Solarpotenzials. Zudem wird eine Rohdatenkontrolle zur Qualitätsbewertung der Laserscandaten umgesetzt. Zentraler Verfahrensschritt ist die Ableitung der homogenen Dachteilflächen, die unter Berücksichtigung möglichst vieler auch kleiner Dachstrukturen gebildet werden. Das entwickelte Mehrfach-Thresholding Verfahren ermöglicht über die Auswertung der Dachneigung und Dachausrichtung die Separierung von planaren Dachteilflächen. Über den r.sun Algorithmus von GRASS GIS wird die Einstrahlungsanalyse umgesetzt, die den Sonnenstand über den Tag und das Jahr für den Betrachtungsort simuliert und die direkte, diffuse und Globalstrahlung auf die Dachfläche für unterschiedliche Zeitperioden ausgeben lässt. Die Jahressumme der Globalstrahlung wird für jede Dachteilfläche unter Ausschluss stark verschatteter Bereiche errechnet und dient als Grundlage für die Potenzialberechnung. Im Ergebnis enthält jedes Dachteilflächenpolygon Angaben zur geeigneten Modulfläche, zur Höhe der Globalstrahlung, zum potenziellen Stromertrag, zur potenziellen kW-Leistung und zur CO2-Einsparsumme. Datengrundlage sind Laserscandaten, die die Oberflächensituation mit sämtlichen Strukturen abbilden, sowie Gebäudeumringe aus den Liegenschaftsdaten zur Lokalisierung des Gebäudes beziehungsweise des Daches. Laserscandaten eignen sich, abhängig von der Qualität, sehr gut, um im Modell den Betrachtungs- und Einflussraum, der für die Ausgabe des Solarpotenzials auf Dachflächen wichtig ist, flächendeckend und realitätsnah abzubilden. Hier sind insbesondere das Dach insgesamt und die Dachstrukturen sowie die Vegetation, insbesondere Bäume und die Umgebungstopographie die wichtigen Elemente, die flächendeckend und in möglichst hoher Auflösung im Modell vorliegen und berücksichtigt werden sollen, da sie möglicherweise die ertragreiche und wirtschaftliche Nutzung einer Solaranalage verhindern. Über eine rasterbasierte Modellierung ermöglichen diese Daten die Berechnung der Standortparameter wie Dachneigung, Dachausrichtung, Verschattung, Einstrahlungsenergie und Dachflächengröße. An die Laserscandaten werden bestimmte qualitative Anforderungen gestellt, um eine Genauigkeit der Potenzialwerte zu garantieren. Das relativ junge Verfahren wurde in den vergangenen Jahren stark weiter entwickelt, die Lage- und Höhengenauigkeit und Punktdichte wurden deutlich erhöht. Zahlreiche Laserscandatensätze unterschiedlicher Qualität wurden ausgewertet. Die Arbeit beschreibt Mindestanforderungen an die Qualität der Daten, die für eine hohe Qualitätsausgabe des Solarpotenzials benötigt werden. Die Genauigkeit der Solarpotenzialergebnisse wurden über Gebäudepläne realer Objekte, Vor-Ort Messungen und Erträge von bestehenden PV-Anlagen evaluiert. Erzielbare Abweichungen von 2% in der Neigung und 1% in der Ausrichtung sind über die entwickelte Methode auf Grundlage von Laserscandaten mit ausreichender Qualität erreichbar. Größere Abweichungen mit 6% Prozent wurden bei der Dachflächengröße errechnet. Die Bewertung über Referenzanlagen und dessen spezifischem Stromertrag lieferte eine Abweichung von 1,2%. Die Evaluierungsergebnisse bestätigen den Methodenansatz und liefern gute Resultate in der Genauigkeit der Solarpotenzialwerte.
20

Smart Logistic Systems Engineering - Gestaltung logistischer Wertschöpfungssysteme durch augmentierte Prozessunterstützung

Werning, Sebastian 20 January 2021 (has links)
Innerhalb der Fachdomäne Logistik ist ein ausgeprägter Bedarf zur Unterstützung von immer komplexer werdenden und dynamischen Dienstleistungsprozessen durch mobile Informationssysteme festzustellen. Besonders neue Kommunikationstechnologien ermöglichen die Neugestaltung zugehöriger logistischer Wertschöpfungssysteme durch die Vernetzung von produzierenden Unternehmen, Dienstleistern und Endkunden entlang der Supply Chain. Für die Logistik wird die Technologie Augmented Reality (AR) als nutzenstiftendes Werkzeug zur Prozessunterstützung und Realisierung von zwischenmenschlichen Kollaborationen als auch Mensch-Maschine-Kollaborationen bewertet. Hierzu zählen besonders Datenbrillen, sogenannte „Smart Glasses“, die als Trägersystem für die augmentierte Prozessunterstützung zum Einsatz kommen. Zielsetzung dieser Forschungsarbeit ist die Gestaltung von logistischen Wertschöpfungssystemen mittels augmentierter Prozessunterstützung auf Basis Smart-Glasses-basierter Assistenzsysteme. Dazu werden zunächst (1) domänenspezifische als auch branchenübergreifende nutzenstiftende Anwendungsfälle identifiziert und aggregiert, (2) ein Vorgehensmodell zur Konzeption, Integration und Implementierung von entsprechen mobilen Informationssystemen erstellt und (3) Gestaltungsrichtlinien für mensch-zentrierte Assistenzsysteme und zugehörige Kollaborationsfunktionen mit Fokus auf die Gebrauchstauglichkeit (engl. Usability) etabliert. Mittels eines gestaltungsorientierten Vorgehens (Design Science Research) wird der identifizierte Forschungsbedarf mit Erkenntnissen aus einem in der Dienstleistungslogistik verorteten Konsortialforschungsprojekt als auch mehreren prototypischen Instanziierungen praktisch fundiert. Die vorliegende Arbeit erweitert durch die Gestaltung von gebrauchstauglichen Smart-Glasses-basierten Assistenzsystemen und die Schaffung entsprechender Kollaborationsfunktionen das Forschungsgebiet der Mensch-Computer-Interaktion und hier speziell den Forschungsbereich der Computer-Supported Cooperative Work. Zusätzlich wird der Bereich des Service Systems Engineering als Teildisziplin der Wirtschaftsinformatik mit Gestaltungswissen ergänzt. Zugleich wird die Wissensbasis der Fachdomäne Logistik (und hier speziell der Dienstleistungslogistik) um konkrete Anwendungsfälle für eine augmentierte Prozessunterstützung erweitert.

Page generated in 0.0699 seconds