• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 222
  • 121
  • 45
  • 20
  • 2
  • 1
  • Tagged with
  • 407
  • 262
  • 169
  • 159
  • 94
  • 93
  • 93
  • 73
  • 65
  • 62
  • 55
  • 50
  • 43
  • 42
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Search Interaction Optimization / Search Interaction Optimization : Ein nutzerzentrierter Design-Ansatz

Speicher, Maximilian 20 September 2016 (has links) (PDF)
Over the past 25 years, search engines have become one of the most important, if not the entry point of the World Wide Web. This development has been primarily due to the continuously increasing amount of available documents, which are highly unstructured. Moreover, the general trend is towards classifying search results into categories and presenting them in terms of semantic information that answer users' queries without having to leave the search engine. With the growing amount of documents and technological enhancements, the needs of users as well as search engines are continuously evolving. Users want to be presented with increasingly sophisticated results and interfaces while companies have to place advertisements and make revenue to be able to offer their services for free. To address the above needs, it is more and more important to provide highly usable and optimized search engine results pages (SERPs). Yet, existing approaches to usability evaluation are often costly or time-consuming and mostly rely on explicit feedback. They are either not efficient or not effective while SERP interfaces are commonly optimized primarily from a company's point of view. Moreover, existing approaches to predicting search result relevance, which are mostly based on clicks, are not tailored to the evolving kinds of SERPs. For instance, they fail if queries are answered directly on a SERP and no clicks need to happen. Applying Human-Centered Design principles, we propose a solution to the above in terms of a holistic approach that intends to satisfy both, searchers and developers. It provides novel means to counteract exclusively company-centric design and to make use of implicit user feedback for efficient and effective evaluation and optimization of usability and, in particular, relevance. We define personas and scenarios from which we infer unsolved problems and a set of well-defined requirements. Based on these requirements, we design and develop the Search Interaction Optimization toolkit. Using a bottom-up approach, we moreover define an eponymous, higher-level methodology. The Search Interaction Optimization toolkit comprises a total of six components. We start with INUIT [1], which is a novel minimal usability instrument specifically aiming at meaningful correlations with implicit user feedback in terms of client-side interactions. Hence, it serves as a basis for deriving usability scores directly from user behavior. INUIT has been designed based on reviews of established usability standards and guidelines as well as interviews with nine dedicated usability experts. Its feasibility and effectiveness have been investigated in a user study. Also, a confirmatory factor analysis shows that the instrument can reasonably well describe real-world perceptions of usability. Subsequently, we introduce WaPPU [2], which is a context-aware A/B testing tool based on INUIT. WaPPU implements the novel concept of Usability-based Split Testing and enables automatic usability evaluation of arbitrary SERP interfaces based on a quantitative score that is derived directly from user interactions. For this, usability models are automatically trained and applied based on machine learning techniques. In particular, the tool is not restricted to evaluating SERPs, but can be used with any web interface. Building on the above, we introduce S.O.S., the SERP Optimization Suite [3], which comprises WaPPU as well as a catalog of best practices [4]. Once it has been detected that an investigated SERP's usability is suboptimal based on scores delivered by WaPPU, corresponding optimizations are automatically proposed based on the catalog of best practices. This catalog has been compiled in a three-step process involving reviews of existing SERP interfaces and contributions by 20 dedicated usability experts. While the above focus on the general usability of SERPs, presenting the most relevant results is specifically important for search engines. Hence, our toolkit contains TellMyRelevance! (TMR) [5] — the first end-to-end pipeline for predicting search result relevance based on users’ interactions beyond clicks. TMR is a fully automatic approach that collects necessary information on the client, processes it on the server side and trains corresponding relevance models based on machine learning techniques. Predictions made by these models can then be fed back into the ranking process of the search engine, which improves result quality and hence also usability. StreamMyRelevance! (SMR) [6] takes the concept of TMR one step further by providing a streaming-based version. That is, SMR collects and processes interaction data and trains relevance models in near real-time. Based on a user study and large-scale log analysis involving real-world search engines, we have evaluated the components of the Search Interaction Optimization toolkit as a whole—also to demonstrate the interplay of the different components. S.O.S., WaPPU and INUIT have been engaged in the evaluation and optimization of a real-world SERP interface. Results show that our tools are able to correctly identify even subtle differences in usability. Moreover, optimizations proposed by S.O.S. significantly improved the usability of the investigated and redesigned SERP. TMR and SMR have been evaluated in a GB-scale interaction log analysis as well using data from real-world search engines. Our findings indicate that they are able to yield predictions that are better than those of competing state-of-the-art systems considering clicks only. Also, a comparison of SMR to existing solutions shows its superiority in terms of efficiency, robustness and scalability. The thesis concludes with a discussion of the potential and limitations of the above contributions and provides an overview of potential future work. / Im Laufe der vergangenen 25 Jahre haben sich Suchmaschinen zu einem der wichtigsten, wenn nicht gar dem wichtigsten Zugangspunkt zum World Wide Web (WWW) entwickelt. Diese Entwicklung resultiert vor allem aus der kontinuierlich steigenden Zahl an Dokumenten, welche im WWW verfügbar, jedoch sehr unstrukturiert organisiert sind. Überdies werden Suchergebnisse immer häufiger in Kategorien klassifiziert und in Form semantischer Informationen bereitgestellt, die direkt in der Suchmaschine konsumiert werden können. Dies spiegelt einen allgemeinen Trend wider. Durch die wachsende Zahl an Dokumenten und technologischen Neuerungen wandeln sich die Bedürfnisse von sowohl Nutzern als auch Suchmaschinen ständig. Nutzer wollen mit immer besseren Suchergebnissen und Interfaces versorgt werden, während Suchmaschinen-Unternehmen Werbung platzieren und Gewinn machen müssen, um ihre Dienste kostenlos anbieten zu können. Damit geht die Notwendigkeit einher, in hohem Maße benutzbare und optimierte Suchergebnisseiten – sogenannte SERPs (search engine results pages) – für Nutzer bereitzustellen. Gängige Methoden zur Evaluierung und Optimierung von Usability sind jedoch größtenteils kostspielig oder zeitaufwändig und basieren meist auf explizitem Feedback. Sie sind somit entweder nicht effizient oder nicht effektiv, weshalb Optimierungen an Suchmaschinen-Schnittstellen häufig primär aus dem Unternehmensblickwinkel heraus durchgeführt werden. Des Weiteren sind bestehende Methoden zur Vorhersage der Relevanz von Suchergebnissen, welche größtenteils auf der Auswertung von Klicks basieren, nicht auf neuartige SERPs zugeschnitten. Zum Beispiel versagen diese, wenn Suchanfragen direkt auf der Suchergebnisseite beantwortet werden und der Nutzer nicht klicken muss. Basierend auf den Prinzipien des nutzerzentrierten Designs entwickeln wir eine Lösung in Form eines ganzheitlichen Ansatzes für die oben beschriebenen Probleme. Dieser Ansatz orientiert sich sowohl an Nutzern als auch an Entwicklern. Unsere Lösung stellt automatische Methoden bereit, um unternehmenszentriertem Design entgegenzuwirken und implizites Nutzerfeedback für die effizienteund effektive Evaluierung und Optimierung von Usability und insbesondere Ergebnisrelevanz nutzen zu können. Wir definieren Personas und Szenarien, aus denen wir ungelöste Probleme und konkrete Anforderungen ableiten. Basierend auf diesen Anforderungen entwickeln wir einen entsprechenden Werkzeugkasten, das Search Interaction Optimization Toolkit. Mittels eines Bottom-up-Ansatzes definieren wir zudem eine gleichnamige Methodik auf einem höheren Abstraktionsniveau. Das Search Interaction Optimization Toolkit besteht aus insgesamt sechs Komponenten. Zunächst präsentieren wir INUIT [1], ein neuartiges, minimales Instrument zur Bestimmung von Usability, welches speziell auf sinnvolle Korrelationen mit implizitem Nutzerfeedback in Form Client-seitiger Interaktionen abzielt. Aus diesem Grund dient es als Basis für die direkte Herleitung quantitativer Usability-Bewertungen aus dem Verhalten von Nutzern. Das Instrument wurde basierend auf Untersuchungen etablierter Usability-Standards und -Richtlinien sowie Experteninterviews entworfen. Die Machbarkeit und Effektivität der Benutzung von INUIT wurden in einer Nutzerstudie untersucht und darüber hinaus durch eine konfirmatorische Faktorenanalyse bestätigt. Im Anschluss beschreiben wir WaPPU [2], welches ein kontextsensitives, auf INUIT basierendes Tool zur Durchführung von A/B-Tests ist. Es implementiert das neuartige Konzept des Usability-based Split Testing und ermöglicht die automatische Evaluierung der Usability beliebiger SERPs basierend auf den bereits zuvor angesprochenen quantitativen Bewertungen, welche direkt aus Nutzerinteraktionen abgeleitet werden. Hierzu werden Techniken des maschinellen Lernens angewendet, um automatisch entsprechende Usability-Modelle generieren und anwenden zu können. WaPPU ist insbesondere nicht auf die Evaluierung von Suchergebnisseiten beschränkt, sondern kann auf jede beliebige Web-Schnittstelle in Form einer Webseite angewendet werden. Darauf aufbauend beschreiben wir S.O.S., die SERP Optimization Suite [3], welche das Tool WaPPU sowie einen neuartigen Katalog von „Best Practices“ [4] umfasst. Sobald eine durch WaPPU gemessene, suboptimale Usability-Bewertung festgestellt wird, werden – basierend auf dem Katalog von „Best Practices“ – automatisch entsprechende Gegenmaßnahmen und Optimierungen für die untersuchte Suchergebnisseite vorgeschlagen. Der Katalog wurde in einem dreistufigen Prozess erarbeitet, welcher die Untersuchung bestehender Suchergebnisseiten sowie eine Anpassung und Verifikation durch 20 Usability-Experten beinhaltete. Die bisher angesprochenen Tools fokussieren auf die generelle Usability von SERPs, jedoch ist insbesondere die Darstellung der für den Nutzer relevantesten Ergebnisse eminent wichtig für eine Suchmaschine. Da Relevanz eine Untermenge von Usability ist, beinhaltet unser Werkzeugkasten daher das Tool TellMyRelevance! (TMR) [5], die erste End-to-End-Lösung zur Vorhersage von Suchergebnisrelevanz basierend auf Client-seitigen Nutzerinteraktionen. TMR ist einvollautomatischer Ansatz, welcher die benötigten Daten auf dem Client abgreift, sie auf dem Server verarbeitet und entsprechende Relevanzmodelle bereitstellt. Die von diesen Modellen getroffenen Vorhersagen können wiederum in den Ranking-Prozess der Suchmaschine eingepflegt werden, was schlussendlich zu einer Verbesserung der Usability führt. StreamMyRelevance! (SMR) [6] erweitert das Konzept von TMR, indem es einen Streaming-basierten Ansatz bereitstellt. Hierbei geschieht die Sammlung und Verarbeitung der Daten sowie die Bereitstellung der Relevanzmodelle in Nahe-Echtzeit. Basierend auf umfangreichen Nutzerstudien mit echten Suchmaschinen haben wir den entwickelten Werkzeugkasten als Ganzes evaluiert, auch, um das Zusammenspiel der einzelnen Komponenten zu demonstrieren. S.O.S., WaPPU und INUIT wurden zur Evaluierung und Optimierung einer realen Suchergebnisseite herangezogen. Die Ergebnisse zeigen, dass unsere Tools in der Lage sind, auch kleine Abweichungen in der Usability korrekt zu identifizieren. Zudem haben die von S.O.S.vorgeschlagenen Optimierungen zu einer signifikanten Verbesserung der Usability der untersuchten und überarbeiteten Suchergebnisseite geführt. TMR und SMR wurden mit Datenmengen im zweistelligen Gigabyte-Bereich evaluiert, welche von zwei realen Hotelbuchungsportalen stammen. Beide zeigen das Potential, bessere Vorhersagen zu liefern als konkurrierende Systeme, welche lediglich Klicks auf Ergebnissen betrachten. SMR zeigt gegenüber allen anderen untersuchten Systemen zudem deutliche Vorteile bei Effizienz, Robustheit und Skalierbarkeit. Die Dissertation schließt mit einer Diskussion des Potentials und der Limitierungen der erarbeiteten Forschungsbeiträge und gibt einen Überblick über potentielle weiterführende und zukünftige Forschungsarbeiten.
342

Einfluss modifizierter Herz-Lungen-Maschinen-Systeme sowie einer selektiven Perfusion der Lungenstrombahn zur Verminderung der inflammatorischen Reaktion nach herzchirurgischen Operationen im Vergleich zum OPCAB-Verfahren

Flister, Anja 01 July 2015 (has links) (PDF)
Pulmonary TNFa concentration and wall thickness after on- versus off pump cardiac surgery
343

Spatial Mapping in virtuellen Umgebungen / Spatial mapping in virtual environments: The effects of stereoscopy and natural mappping on user experience

Pietschmann, Daniel 22 August 2014 (has links) (PDF)
Die vorliegende Arbeit untersucht die Auswirkung von reichhaltigen, natürlichen Eingabe- und Ausgabeinformationen in virtuellen Umgebungen in Form von Natural Mapping und Stereoskopie. Dabei steht insbesondere die Kombination der Ein- und Ausgabemodalitäten mit dem damit verbundenen Interaktionsgegenstand im Fokus. Auf Basis von mentalen Modellen werden Transferprozesse von Wissen und Fertigkeiten bezüglich realer Handlungen auf virtuelle Handlungen angenommen. Diese resultieren in einer potenziell höheren User Experience und Performance bei der Interaktion. Spatial Mapping wird als Konzept der räumlichen Übereinstimmung von Wahrnehmungsräumen der Ein- und Ausgabeinformationen eingeführt und damit als holistische Erweiterung von Natural Mapping verstanden. Spatial Mapping bezeichnet in der vorliegenden Arbeit den Grad der Verknüpfung der physikalischen und virtuellen Umgebung, sodass Nutzer im Idealfall eine isomorphe Abbildung der beiden Wahrnehmungsräume erfahren und notwendige Transformationsprozesse für die Verarbeitung der virtuellen Umgebung minimiert werden können. Im Resultat stehen mehr kognitive Ressourcen für andere Inhalte zur Verfügung. Auf Basis des Spatial-Mapping-Ansatzes wurde ein Pfadmodell konstruiert, das experimentell überprüft wurde. In zwei Experimenten wurden Effekte von Natural Mapping und Stereoskopie in Szenarien mit hohem Spatial Mapping untersucht. Das erste Experiment nutzte dafür ein kommerzielles Computerspiel, bei dem Spatial Mapping für die Interaktion nicht handlungsrelevant war. Beim zweiten Experiment kam ein Virtual-Reality-Simulator zum Einsatz, bei dessen Aufgabenstellung Nutzer vom hohen Spatial Mapping deutlich profitieren konnten. Meist wird Stereoskopie auf existierende mediale Inhalte angewendet, ohne die Inhalte entsprechend darauf anzupassen. Diese Vorgehensweise lässt sich sowohl bei kommerziellen Computerspielen als auch in der Filmindustrie beobachten. Die Experimente zeigen, dass Stereoskopie keinen Einfluss auf UX und Performance hat, wenn das verfügbare Spatial Mapping für den Interaktionsgegenstand nicht handlungsrelevant ist. Die Arbeit diskutiert den Einsatz von Stereoskopie und Natural Mapping in Abhängigkeit des verwendeten Interaktionsgegenstandes und liefert damit einen Erklärungsansatz, der Eingabe- und Ausgabemodalitäten kombiniert betrachtet.
344

Workshop Audiovisuelle Medien

Eibl, Maximilian, Kürsten, Jens, Ritter, Marc 03 June 2009 (has links) (PDF)
Audiovisuelle Medien stellen Archive vor zunehmende Probleme. Ein stark wachsender (Web-)TV-Markt mit Sende- oder Rohmaterial, zunehmender Einsatz von medial aufbereitetem Lehrmaterial in Schulen, Hochschulen und Firmen, die Verbreitung der Videoanalyse als Forschungs- und Lehrmethode, die Ausbreitung von Überwachungskameras sowie die immer günstigeren Produktionsbedingungen vom professionellen Produzenten bis zum Heimvideo sind nur einige Stichworte um die neuen quantitativen Dimensionen zu umreißen. Die archivarischen und dokumentarischen Werkzeuge sind heute mit dieser Situation überfordert. Der Workshop versucht hier Probleme und Lösungsmöglichkeiten zu umreißen und beschäftigt sich mit den technologischen Fragestellungen rund um die Archivierung audiovisueller Medien, seien es analoge, digitalisierte oder digitale Medien. Dabei werden zum einen die technologischen Probleme angesprochen, die zum Aufbau und Management eines Archivs bewältigt werden müssen. Zum anderen wird der praktische Einsatz von der Gestaltung der Benutzungsoberfläche bis zur Frage des Umgangs mit kritischem Material diskutiert.
345

Einfluss modifizierter Herz-Lungen-Maschinen-Systeme sowie einer selektiven Perfusion der Lungenstrombahn zur Verminderung der inflammatorischen Reaktion nach herzchirurgischen Operationen im Vergleich zum OPCAB-Verfahren

Flister, Anja 09 June 2015 (has links)
Pulmonary TNFa concentration and wall thickness after on- versus off pump cardiac surgery
346

Workshop Audiovisuelle Medien

Eibl, Maximilian, Kürsten, Jens, Ritter, Marc 03 June 2009 (has links)
Audiovisuelle Medien stellen Archive vor zunehmende Probleme. Ein stark wachsender (Web-)TV-Markt mit Sende- oder Rohmaterial, zunehmender Einsatz von medial aufbereitetem Lehrmaterial in Schulen, Hochschulen und Firmen, die Verbreitung der Videoanalyse als Forschungs- und Lehrmethode, die Ausbreitung von Überwachungskameras sowie die immer günstigeren Produktionsbedingungen vom professionellen Produzenten bis zum Heimvideo sind nur einige Stichworte um die neuen quantitativen Dimensionen zu umreißen. Die archivarischen und dokumentarischen Werkzeuge sind heute mit dieser Situation überfordert. Der Workshop versucht hier Probleme und Lösungsmöglichkeiten zu umreißen und beschäftigt sich mit den technologischen Fragestellungen rund um die Archivierung audiovisueller Medien, seien es analoge, digitalisierte oder digitale Medien. Dabei werden zum einen die technologischen Probleme angesprochen, die zum Aufbau und Management eines Archivs bewältigt werden müssen. Zum anderen wird der praktische Einsatz von der Gestaltung der Benutzungsoberfläche bis zur Frage des Umgangs mit kritischem Material diskutiert.:Interaction MedioVis 2.0 - A novel User Interface for Seeking Audio-Visual Media Libraries Harald Reiterer, Mathias Heilig and Sebastian Rexhausen SIVA Suite – Konzeption eines Frameworks zur Erstellung von interaktiven Videos B. Meixner, B. Siegel, G. Hölbling, H. Kosch und F. Lehner Online-Werbung als digitales Kulturgut: Analyse, Erschließung und Archivierung Christian Wolff Beyond Basic Blanks – Vertrauenserhaltende, schrittweise Implementierung neuer Funktionen im Information Retrieval Arne Berger Beyond Basic Blanks – Akzeptanz adaptiver Annotations- und Rechercheoberflächen Arne Berger Media Usage Nutzung von Mediatheken öffentlich-rechtlicher Fernsehsender Sven Pagel, Carina Bischoff, Sebastian Goldstein und Alexander Jürgens Video-Tools im Schulunterricht: Psychologisch-pädagogische Forschung zur Nutzung audiovisueller Medien Carmen Zahn, Karsten Krauskopf und Friedrich W. Hesse Special Issues in Multimedia Archiving Einsatz Pixelbasierter Datenfusion zur Objektklassifikation Jan Thomanek, Holger Lietz, Basel Fardi, Gerd Wanielik Grundlagen für das Retrieval rotationssymmetrischer Gefäße Stefan Wagner, Christian Hörr, David Brunner und Guido Brunnett Verschmelzendes Clustering in Artmap Frederik Beuth und Marc Ritter Von der Bildrepräsentation zur Objekterkennung – Bewegungsanalyse als mächtiges Werkzeug der automatischen Bildinterpretation Tobias John, Basel Fardi und Gerd Wanielik Aspekte zur Archivierung audiovisueller Unterlagen im Sächsischen Staatsarchiv Stefan Gööck FusionSystems GmbH Systeme zur Sensor-Daten-Fusion und Szeneninterpretation Ullrich Scheunert und Basel Fardi Multimedia Analysis and Retrieval Visualisierung von Prozessketten zur Shot Detection Marc Ritter Textdetektion und -extraktion mit gewichteter DCT und mehrwertiger Bildzerlegung Stephan Heinich Sprechererkennungssystem auf Basis der Vektorquantisierung mit Störgeräuschfilterung Stephan Heinich Metadatenstandards und –formate für audiovisuelle Inhalte Jens Kürsten Entwurf einer Service-orientierten Architektur als Erweiterung einer Plattform zum Programm-Austausch Jens Kürsten Untersuchungen zu semantischem Retrieval von Bildern mit Hilfe von MPEG7 anhand einer Beispielapplikation Daniel Pötzinger Distribution Aspects Dynamische Distribution personalisierten Mobilfernsehens in hybriden Netzen Albrecht Kurze, Robert Knauf und Arne Berger Multimedia Archives – Music Evaluation of an Image and Music Indexing Prototype Peter Dunker, Ronny Paduschek, Christian Dittmar, Stefanie Nowak and Matthias Gruhne Aspekte inhaltlicher Modellierung von Musikdokumenten in digitalen Archiven Michael Rentzsch und Frank Seifert
347

Catalytic Tubular Micro-Jet Engines

Solovev, Alexander Alexandrovich 26 June 2012 (has links)
This dissertation offers demonstrations of autonomous catalytic microtubes (microjet engines) with tunable diameters ranging from micro- to nanoscale and lengths from 50 μm to 1 mm. These results open the door to effective microengines and represent the entry in the Guinness Book of World Records for “the smallest man-made jet engine.” Several attractive methodologies of machine-based functions at the micro- and nanoscale are shown. For instance, catalytic Ti/Cr/Pt microjets, which are integrated on a planar substrate, can operate as “on chip” chemical micropumps by decomposition of hydrogen peroxide fuel into oxygen bubbles and water. When released from a substrate, microjets self-propel autonomously in solution. The incorporation of ferromagnetic layer (Fe) into the rolled-up geometry enables their remote control using external magnetic field. Such microjets were used to load, transport, deliver and assemble multiple cargo particles, including biological cells in bulk solutions and microfluidic channels. Furthermore, it is demonstrated that for microjets that are fixed to or self-propelled above a platinum patterned surface, the microengine power/speed can be controlled using a white lightsource. A change in intensity of the white light leads to a controllable switching “off” and “on” of the microengine power on demand. Light degrades a local concentration of the hydrogen peroxide fuel and surface tension and subsequently suppresses the generation of oxygen microbubbles. In the next step, the diameter of the microjets was rigorously reduced to 250 nm by using hybrid heteroepitaxial/catalytic InGaAs/GaAs/Cr/Pt nanotubes. Due to asymmetry of the rolled-up layers, these nanojets move in corkscrew-like motions and act as “self-propelled nanotools,” which were used in the next step to transport yeast cells and drill into fixed cancer Hela cells. Although it is well-known that hydrogen peroxide cannot be used to sustain viable cellular function, it is however conceivable that alternative fuels, such as glucose, might enable operation of such nanotools under biologically compatible conditions. As a first step to achieve this goal, demonstrations were made using metal-enzyme biocatalytic Ti/Au/SAM/Catalase microengines. Synthetic components with competing interactions are well-suited to study the emergence of their collective behavior, such as swarms of large numbers of individuals. Microengines’ self-organization in bistable swarms is shown at the air-liquid interface of the mixture of propylene carbonate and hydrogen peroxide. Microengines act as “water striders.” Buoyed by oxygen bubbles, they self-propel via the microbubble recoiling mechanism and, depending on the bubbles’ sizes, self-organize into swarms due to the meniscus climbing effect. These reversible swarms depend on the microengine power, which competes against attracting surface tension force. The demonstrated microjet engines show great promise for emerging applications, including biomedical, on-chip, environmental, and robotic micromachines. Furthermore, a key method discovered, entitled “rolled-up nanotechnology on polymers,” allowed for the fabrication of highly parallel arrays of microtubes with multiple functionalities and aimed for different purposes.
348

Simulation, Erfassung und Analyse direkter Objektmanipulationen in Virtuellen Umgebungen

Heumer, Guido 19 July 2010 (has links)
Mit der Interaktionstechnik der "direkten Objektmanipulation" für virtuelle Umgebungen wird angestrebt, virtuelle Objekte genauso realistisch und flexibel handhaben zu können, wie das bei realen Objekten der Fall ist. Das bedeutet, virtuelle Objekte können mittels eines Handmodells direkt berührt, ergriffen, getragen, gedrückt und gezogen werden. Diese Interaktionstechnik findet vor allem dort Anwendung, wo Objektmanipulationen möglichst realistisch simuliert und erfasst werden sollen, z.B. bei Ergonomieuntersuchungen, virtuellem Prototyping, Trainingssimulationen usw. Neben einigen Ansätzen zur technischen Umsetzung von direkten Objektmanipulationen werden in dieser Arbeit vor allem Konzepte und Verfahren entwickelt und vorgestellt, die eine Erfassung und Analyse von Benutzerinteraktionen unter Verwendung dieser Interaktionstechnik ermöglichen. Eine wichtige Rolle spielt dabei die Untersuchung von Greifvorgängen, insbesondere die automatische Erkennung von Greifarten. Dazu wurden mehrere ausführliche empirische Studien mit einer neuartigen systematischen Methodik durchgeführt, woraus sich Empfehlungen für die Wahl von Klassifikationsverfahren und die Zusammensetzung der Merkmale ergeben. Ein weiteres Ergebnis ist eine neue Taxonomie von Greifarten, die speziell auf den Einsatz in virtueller Realität zugeschnitten ist und sich durch die Integration nicht-prehensiler Greifarten auszeichnet. Als weiterer wesentlicher Beitrag wird ein Analyseverfahren vorgestellt, mit dem der kontinuierliche Strom von Bewegungs- und Interaktionsdaten in Sequenzen von diskreten sinntragenden Basisinteraktionen zerlegt werden kann. Diese Sequenzen können anschließend manuell ausgewertet oder im Rahmen des "Action Capture"-Verfahrens in eine abstrakte Aktionsrepräsentation überführt und durch unterschiedliche virtuelle Figuren wiedergegeben werden.:Abbildungsverzeichnis ix Tabellenverzeichnis xiii Verzeichnis der Listings xv 1. Einleitung 1 1.1. Wissenschaftlicher Kontext und Abgrenzung 2 1.2. Zielsetzung und Beitrag 3 1.3. Aufbau der Arbeit 5 2. Interaktion in virtuellen Umgebungen 7 2.1. Grundbegriffe 7 2.2. Techniken der Interaktion in virtuellen Umgebungen 10 2.2.1. Zeigerbasierte Interaktion 10 2.2.2. Multimodale Interaktion 11 2.2.3. Direkte Objektmanipulation 12 2.3. Eingabegeräte 14 2.3.1. Positionstracker 14 2.3.2. Datenhandschuh (Cyberglove) 15 2.3.3. Fingertracker 18 2.4. Virtuelle Objekte 20 2.4.1. Funktionale Komponenten virtueller Umgebungen 20 2.4.2. Artikulierte Objekte und Stellteile 21 2.4.3. Die Industrienorm EN 894-3 für Stellteile 23 2.5. Zusammenfassung 24 3. Direkte Objektmanipulation in der Realität 25 3.1. Menschliches Greifen 25 3.1.1. Anatomische Grundbegriffe der menschlichen Hand 26 3.1.2. Eigenschaften von Greifvorgängen 28 3.2. Taxonomien von Greifarten 31 3.2.1. Greifarten nach Schlesinger 32 3.2.2. Griffkategorien nach Napier 34 3.2.3. Taxonomie von Greifarten nach Cutkosky 37 3.2.4. Taxonomie von Greifarten nach Kamakura 38 3.3. Eine spezielle Grifftaxonomie für Objektmanipulationen in VR 41 3.3.1. Anforderungen an eine Grifftaxonomie 41 3.3.2. Erfüllung dieser Anforderungen durch bestehende Taxonomien 43 3.3.3. Entwurfsprozess der Taxonomie 44 3.3.4. Detailbeschreibung der neuen Taxonomie 46 3.4. Zusammenfassung 51 4. Umsetzung direkter Objektmanipulation in virtuellen Umgebungen 53 4.1. Annotierte Objekte 53 4.1.1. Deklaration annotierter Objekte 55 4.1.2. Szenende?nitionen 58 4.1.3. Implementierung annotierter Objekte 60 4.2. Virtuelle Stellteile 62 4.2.1. Implementierung virtueller Stellteile 62 4.2.2. Stellteilereignisse 66 4.3. Virtuelles Handmodell 67 4.3.1. Deklaration des Handmodells 69 4.3.2. Implementierung des Handmodells 70 4.3.3. Physikalisches Handmodell 72 4.4. Simulation des Greifens 72 4.4.1. Implementierung der Geometrie-basierten Simulation 74 4.4.2. Implementierung der Sensor-Kräfte-basierten Simulation 75 4.4.3. Implementierung der Dynamik-basierten Simulation 76 4.5. Zusammenfassung 77 5. Automatische Erkennung von Greifarten 79 5.1. Verwandte Arbeiten 80 5.2. Methodik 81 5.3. Erkennung basierend auf Rohdaten des Cyberglove 82 5.3.1. Erste Studie (CG-S-R): Cyberglove-Rohdaten, Schlesinger-Taxonomie, reale Objekte 83 5.3.2. Anschlussstudie zur Verbesserung der Generalisierungsfähigkeit 97 5.3.3. Zweite Studie (CG-H-R): Cyberglove-Rohdaten, neue Taxonomie, reale Objekte 108 5.4. Erkennung basierend auf Gelenkwinkeln des Fingertrackings 119 5.4.1. Dritte Studie (FT3-S-R): Fingertracking, Schlesinger-Taxonomie, reale Objekte 119 5.4.2. Vierte Studie (FT5-S-V): Fingertracking, Schlesinger-Taxonomie, virtuelle Objekte 130 5.5. Vergleichende Diskussion aller Studien 143 5.6. Zusammenfassung 146 6. Erfassung und Analyse von direkten Objektmanipulationen in virtuellen Umgebungen 149 6.1. Erfassung und Aufzeichnung von Interaktionen 149 6.1.1. Ebene 0 - Rohdaten der Eingabegeräte 150 6.1.2. Ebene 1 - Bewegungsdaten der Körpermodells 151 6.1.3. Ebene 2 - Interaktionsdaten 152 6.2. Basisinteraktionen 153 6.2.1. Taxonomie von Basisinteraktionen 153 6.2.2. Detailbeschreibung der Basisinteraktionen 154 6.3. Erkennung von Basisinteraktionen 157 6.3.1. Segmentierung der Bewegungen 158 6.3.2. Verarbeitung von Kontaktinformationen 160 6.3.3. Verarbeitung von Stellteilereignissen 161 6.3.4. Weiterverarbeitung von Basisinteraktionen 162 6.4. Interaktionsereignisse 162 6.4.1. Typen von Interaktionsereignissen 163 6.4.2. XML-Format 164 6.4.3. Typabhängige Inhalte 166 6.4.4. Sequenzen von Interaktionsereignissen 171 6.4.5. Visualisierung von Interaktionsereignissen 171 6.5. Interaktionsdatenbank 172 6.5.1. Interaktionskanäle 173 6.5.2. Aufzeichnungssitzungen 174 6.6. Zusammenfassung 176 7. Beispielszenarien 179 7.1. Objekt an andere Position tragen (pick and place) 180 7.1.1. Die Werkbank-Szene 180 7.1.2. Interaktionssequenz im Detail 181 7.2. Stellteilbedienung 191 7.2.1. Die Pult-Szene 191 7.2.2. Die Interaktionssequenz mit dem Stellteil im Detail 192 7.3. Beispiel eines virtuellen Prototyps 200 7.3.1. Die Autocockpit-Szene 200 7.3.2. Aufgezeichnete Aktionssequenz 201 7.4. Zusammenfassung 203 8. Zusammenfassung und Ausblick 205 8.1. Ergebnisse 205 8.2. Einbettung der Arbeit in das „Action Capture“-Verfahren 209 8.2.1. Automatische Generierung von Aktionsbeschreibungen 209 8.2.2. Erzeugung von Animationen 211 8.3. Diskussion: Limitierungen und Anwendbarkeit des vorgestellten Ansatzes 213 8.4. Ausblick 215 A. Schemata der XML-Formate 219 A.1. Interaktionsereignisse 219 A.2. Handsensoren 223 A.3. Annotierte Objekte 224 A.4. Szenenbeschreibung 226 B. Abkürzungsverzeichnis 227 Literaturverzeichnis 229
349

Erfassung des subjektiven Erlebens jüngerer und älterer Autofahrer zur Ableitung von Unterstützungsbedürfnissen im Fahralltag

Simon, Katharina 09 November 2018 (has links)
Erkenntnisse über das Fahrerleben, also die subjektive Sicht von Fahrern auf Ereignisse im Fahralltag, wurden bisher vor allem retrospektiv gewonnen und sind damit anfällig für mitunter weitreichende Verfälschungen. Diese Dissertation verfolgte den Ansatz, das subjektive Fahrerleben auf alltäglichen Fahrten so situationsnah wie möglich zu erfassen. Ziel der Untersuchung war es, eine breite Datenbasis von subjektiv beanspruchenden Situationen für jüngere und ältere Fahrer zu generieren, um auch unbewusst vorhandene Unterstützungsbedürfnisse zu erfassen und damit eine bedarfsgerechte Entwicklung von Fahrerassistenzsystemen zu unterstützen. Es wurden 40 jüngere (M = 32,35 Jahre; SD = 3,58) und 40 ältere (M = 66,05 Jahre; SD = 4,13) Fahrer, je 20 Männer und Frauen, in ihrem Fahralltag über einen Zeitraum von jeweils 10 Tagen untersucht. Die Probanden hielten für sie relevante Situationen in kurzen Sprachprotokollen während der Fahrt über die Aufnahmefunktion in einem Smartphone fest. Unterstützt wurde die Situationsbetrachtung durch eine Videoaufnahme der Fahrsituation, sowie im Smartphone erfasste Geschwindigkeits-, Beschleunigungsdaten und GPS. Im Versuchszeitraum wurden insgesamt 1074 für die Auswertung relevante Sprachprotokolle während der Fahrt aufgezeichnet. Es ließen sich dabei 301 verschiedene Auslöser für die Aufnahme eines Sprachprotokolls unterscheiden. Ausgehend von den Ergebnissen und den geäußerten Unterstützungswünschen der Probanden wurden fünf verschiedene Unterstützungsbedürfnisse identifiziert, aus denen sich Anforderungen für Fahrerassistenzsysteme und Mensch-Maschine-Schnittstellen ableiten lassen. / Insights into driver experience, i.e. the driver's subjective view on events in everyday driving, have so far been gained mainly retrospectively (e.g. through interviews or online surveys). From a methodic perspective this means that reports and judgment are provided somewhat later after the event and therefore can be biased. In recent years, research in the field of driver-vehicle interaction has increasingly been enriched by natural driving studies (NDS). Since this method captures driving behavior in the natural driving context, it provides very realistic insights into events that drivers experience on a daily basis. So far, however, the focus has been on an objective view of driving behavior and environmental conditions with the aim of capturing parameters that provide an indication of future safety-critical situations. The subjective view of the driver, e.g. which situations he assesses as demanding, was hardly considered. The idea of the dissertation thesis was to capture subjective driver experience and support wishes of drivers in a NDS-like study. The aim of the study was to generate a broad database of subjectively demanding situations for younger and elder drivers, in order to detect unconsciously existing support needs and thus to support the user-centered development of driver assistance systems. Participants were 40 younger (M = 32.35 years, SD = 3.58) and 40 elder (M = 66.05 years, SD = 4.13) drivers, 20 men and 20 women each. Over the period of 10 days they documented each journey by questionnaires before and after each ride. Furthermore a smartphone with a specially programmed application was used as a recording device. Through short speech protocols the participants commented on every relevant driving situation. Considered as relevant - beyond critical events - were all special incidents or situations that were notable for the drivers or in which they wished for support in whatever form. The application also recorded GPS, speed and acceleration data as well as a video of the driving situation during relevant situations. A personal interview took place at the end of each trial period. As a result, a total of 1074 speech protocols were recorded while driving. They showed a very high range of situations that were notable for the participants. A total of 301 different triggers for recording a speech protocol could be distinguished. In addition, the consideration of the verbalized reaction of the drivers in the situations was important. The results were examined with regard to possible differences in age and gender groups. On the basis of the results and the expressed support wishes of the participants, five different support needs were identified, from which requirements for future driver assistance systems and human-machine interfaces can be derived.
350

Ermittlung der Degeneration weichmagnetischer Werkstoffe durch Trennverfahren und ihre Berücksichtigung im Kontext elektrischer Maschinen

Lindner, Mathias 31 January 2019 (has links)
Die Magnetisierungskurven und Ummagnetisierungsverluste weichmagnetischer Werkstoffe zeigen sich stark abhängig von den zur Bearbeitung eingesetzten Trennverfahren. Nach dem theoretischen Ergründen der Ursachen und dem Entwurf einer genauen und praxistauglichen Prüfmethodik erfolgt die messtechnische Charakterisierung dieser Abhängigkeiten an ausgewählten Werkstoffen, Trennverfahren, Probengeometrien und Magnetisierungsbedingungen. Dies ermöglicht erste Rückschlüsse auf die Sensitivität magnetischer Eigenschaften gegenüber Bearbeitungseffekten. Anhand der Ergebnisse können schließlich Modelle zur Beschreibung der Materialdegeneration an Bearbeitungskanten identifiziert werden. Weiterführend werden drei Methoden zur Nachrechnung von Magnetkreisen eingeführt, um im Entwurfsprozess elektrischer Maschinen den Einfluss von degenerierten Eigenschaften abzuschätzen. Diese werden abschließend an praktisch relevanten Anordnungen mit konventionellen Berechnungen und Messwerten verglichen. / Magnetization curves and core losses of soft magnetic materials are strongly dependent on the applied cutting processes. After identifying the theoretical causes and designing an accurate and convenient measuring technique those dependencies are determined from selected materials, cutting processes, sample geometries and magnetization conditions. Thus, first conclusions about the sensitivity of magnetic properties to cutting effects are possible. The results eventually enable the identification of models specifying the material degeneration at cutting edges. Furthermore, three methods are introduced in order to describe magnetic circuits, as common in electrical machines, but under the influence of degenerated properties. Finally, those methods are compared to conventional calculations and measurements at practically relevant cores.

Page generated in 0.1044 seconds