• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 18
  • Tagged with
  • 36
  • 36
  • 36
  • 22
  • 11
  • 11
  • 11
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Evaluation eines Multitouch-basierten Menüs für Magic Lenses im Vergleich zu klassischen Menüs

Groß, Stephanie Sara 07 February 2017 (has links) (PDF)
Die komplexe Analysen großer Datensätze stellt in der Informationsvisualisierung eine zunehmende Herausforderung dar. Mit Hilfe von Magic Lenses wird die teilweise unübersichtliche Visualisierung dieser Datensätze lokal manipuliert und vereinfacht. Dabei spielen besonders der Umfang an Filterfunktionen und wie sie verändert werden können eine Rolle. Die Vorteile eines Multitouchdisplays im Vergleich zu herkömmlicher Maus- oder Keyboardinteraktion kommen dabei zum Einsatz. Es treten jedoch stetig Probleme bei der Adaption bisheriger Menüdesigns auf. Da Magic Lenses über Menüs parametrisiert werden sollen, stellt sich die Frage welche Menü- und Interaktionsarten besser dazu geeignet sind. In dieser Arbeit wird ein Multitouch-basiertes Kontextmenü für Magic Lenses evaluiert. Es befindet sich direkt am Linsenrand und ist kompakt jedoch neuartig. Es wird die Konkurrenzfähigkeit zu einem speziell für die Studie entworfenen und implementierten klassischen, globalen Menü getestet. Dieses ist für Nutzer vertrauter, aber distanziert sich von der Linse. Die Ergebnisse werden anschließend unter quantitativen und qualitativen Punkten zusammengefasst und ausgewertet. Es zeigt sich, dass klassische Menüs mit Touchinteraktion performanter waren. Das Multitouch-basierte Kontextmenü war allerdings bei den Probanden beliebter und wurde für die Arbeit mit Linsen bevorzugt. / The complex analysis of huge data sets is an increasing challenge in information visualization. With the help of emph{Magic Lenses} the somtimes confusing visualization of those data sets is being locally manipulated and simplified. Especially the amount of filter functions and how they can be altered matter. The advantages of multitouch displays in comparison to conventional mouse and keyboard interaction are used. However, there occur continual problems with the adaption of existing menu designs. Since emph{Magic Lenses} have to be parameterized with those menus the question arises which kind of menu and interaction are more fitting. In this work we evaluate a multitouch based context menu for emph{Magic Lenses}. It is located directly at the lens and compact but new to users. We test its competitiveness to a classical global menu specifically designed and implemented for this study. Users are more familiar with it but it is distanced from the lens. Finally, the results are summarized and analyzed under quantitative and qualitative points. It turns out that classical menus with touch interaction performed best. The multitouch-based context menu though was more popular with probands and was preferred for the work with lenses.
12

An Approach to Incremental Learning Good Classification Tests

Naidenova, Xenia, Parkhomenko, Vladimir 28 May 2013 (has links) (PDF)
An algorithm of incremental mining implicative logical rules is pro-posed. This algorithm is based on constructing good classification tests. The in-cremental approach to constructing these rules allows revealing the interde-pendence between two fundamental components of human thinking: pattern recognition and knowledge acquisition.
13

Die Usability suchmaschinenbasierter Bibliothekskataloge

Berges, Vanessa 18 March 2013 (has links) (PDF)
Der Fokus der Arbeit liegt auf der Frage, inwieweit suchmaschinenbasierte Rechercheinstrumente in ihrer Funktionalität den Anforderungen und Erwartungen der heutigen Nutzer tatsächlich entsprechen. Zu diesem Zweck ist beispielhaft ein Usability-Test an dem suchmaschinenbasierten Katalog der Universitätsbibliothek Leipzig durchgeführt worden. Im Kontext der Forschungsfrage müssen verschiedene Themen betrachtet werden: Zunächst wird das Rechercheverhalten der heutigen Nutzer beleuchtet. In diesem Zusammenhang wird auf die alten und neuen bibliothekarischen Rechercheinstrumente eingegangen. Dabei verläuft die Betrachtung vom Allgemeinen zum Speziellen: Die Rahmenbedingungen und Veränderungen bezüglich suchmaschinenbasierter Bibliothekskataloge an der Universitätsbibliothek Leipzig werden dargestellt. Da der Katalog durch einen Usability-Testes evaluiert wird, werden auch der Begriff Usability und verschiedene Methoden der Usability-Evaluation vorgestellt, um eine passende Methode auszuwählen. Der genaue Aufbau des Testes und seine Ergebnisse werden anschließend ausführlich präsentiert und ausgewertet, um die übergeordnete Forschungsfrage zu beantworten. Es kann festgehalten werden, dass die suchmaschinenbasierten Rechercheinstrumente den Anforderungen und Erwartungen der derzeitigen Nutzer entsprechen. In einem abschließenden Fazit wird der Aufbau und die Durchführung des Tests kritisch reflektiert. Die vorliegende Ausgabe der Masterarbeit für die Schriftenreihe Wiborada online weicht von der eingereichten Arbeit ab. Einige Teile des Anhangs (z.B. die Transkriptionen der Usability-Tests) wurden herausgenommen, da sie für die Nachvollziehbarkeit der Inhalte und Ergebnisse nicht sind entscheidend sind. Des Weiteren wurden die Abbildungen für eine bessere Lesbarkeit teilweise vergrößert.
14

Routenführung durch Sonifikation für Blinde und Sehbehinderte / Route navigation by sonfication for blind and visually impaired people

Kestel, Johannes 16 September 2013 (has links) (PDF)
Unbekannte Ziele in öffentlichen Gebäuden zu erreichen, ist ein besonderes Problem für blinde und sehbehinderte Menschen. Es gibt elektronische Hilfsmittel, die dieses Problem lösen, aber meist auf sprachlicher Ausgabe basieren. Die non-verbale Ausgabe der Wegführung hat den Vorteil, dass Informationsübertragung durch kürzere Sinnesreize weniger belasten. Die vorliegende Arbeit präsentiert eine Benutzungsschnittstelle zur Routenführung durch Sonifikation. Es wurde dafür ein Set von akustischen Signalen erarbeitet, die durch Tonhöhenunterschiede und Stereopanorama Richtungen angeben. Die Wahl dieser Parameter wurde durch einen Labortest ermittelt. Es wurde untersucht, welche Informationen für eine erfolgreiche Routenführung notwendig sind. Durch eine einfach gehaltene Funktionsweise mit turn-by-turn Anweisungen und ohne große Anforderungen an akustische Schnittstellen ist die Benutzungsschnittstelle leicht auf bestehende Navigationssysteme übertragbar. In einem Pilottest wurde das Führungskonzept in einer realitätsnahen Umgebung auf seine Gebrauchstauglichkeit hin überprüft.
15

Accessibility Guidelines im Kontext von „Studium und Behinderung“

Ruth, Diana 17 December 2009 (has links) (PDF)
Was bedeutet Barrierefreiheit im Internet? Welche Elemente auf einer Website werden zur Barriere für Menschen mit Sehbehinderungen oder Blindheit? Was sind Barrieren für gehörlose Menschen und was sind Barrieren für körperlich eingeschränkte Menschen? Und wie können diese Barrieren erkannt und abgebaut werden? Welche Lösungsmöglichkeiten gibt es und mit welchem Aufwand sind diese umzusetzen? Die Arbeit zeigt am Beispiel einer Plattform für Studierende mit Behinderungen an der TU Dresden Barrieren im täglichen Umgang mit elektronischen Dienstleistungen für betroffene Nutzer auf. Dafür wird die Anwendung verschiedener anerkannter Evaluationsmethoden am Praxisobjekt demonstriert und mit echten Nutzer-Interviews ergänzt. Auf der Grundlage der erhobenen Daten wird das der Plattform zugrundeliegende Kontextszenario qualifiziert und erweitert und ein Redesign durchgeführt. Die erfolgreiche Anwendung und Umsetzung der Richtlinien für Barrierefreiheit und Gebrauchstauglichkeit wird anschließend dokumentiert und demonstriert.
16

Blindenspezifische Methoden für das User-Centred Design multimodaler Anwendungen

Miao, Mei 18 November 2014 (has links) (PDF)
Multimodale Anwendungen bieten den blinden Benutzern neue Möglichkeiten und Chancen, die durch Verlust des Sehsinnes entstandenen Defizite über andere Sinneskanäle auszugleichen. Die benutzerorientierte Gestaltung ist der sicherste Weg, um interaktive Systeme gebrauchstauglich zu gestalten. Dabei sind die Benutzer hauptsächlich an zwei Aktivitäten beteiligt. Dies sind die Nutzungsanforderungsanalyse und die Evaluation. Hinsichtlich dieser zwei Aktivitäten wurden in der vorliegenden Arbeit Usability-Methoden untersucht bzw. neu entwickelt, um die nutzerzentrierte Gestaltung multimodaler Anwendungen für blinde Benutzer zu unterstützen. Bezogen auf die Aktivität Nutzungsanforderungsanalyse wurde ein Verfahren entwickelt, welches speziell die Besonderheiten blinder Benutzer und multimodaler Anwendungen bei der Nutzungsanforderungsanalyse berücksichtigt. Zusätzlich wurden zwei Schritte des Verfahrens, die Erstellung mentaler Modelle und die Modalitätsauswahl, die speziell auf den Kontext multimodaler Anwendungen für blinde Benutzer ausgerichtet sind, weiter vertiefend untersucht. Für den Schritt Erstellung mentaler Modelle wurden zwei Erstellungsmethoden, Teaching-Back und Retrospective Think-Aloud, mit blinden Benutzern untersucht. Dabei sind sowohl die Gestaltung vom Teaching-Back als auch der Vergleich beider Methoden von Interesse. Für den Schritt Modalitätsauswahl stand die Analyse des multimodalen Nutzerverhaltens blinder Benutzer im Mittelpunkt. Vier Eingabemodalitäten, Sprache, Touchscreen-Gesten, Touchscreen-Tastatur und Touchscreen-Braille bzw. deren Kombinationen wurden unter Einfluss von acht Aufgabentypen bei der Bedienung einer mobilen multimodalen Navigationsanwendung untersucht. In Hinblick auf die Usability-Evaluationsmethoden wurde zuerst das Augenmerk auf die Auswertung und die Erhebung mentaler Karten von blinden Benutzern gerichtet, da sie eine wichtige Rolle bei der Entwicklung von Navigationssystemen spielen. Zwei Auswertungsmethoden für mentale Karten hinsichtlich des Überblicks- und Routenwissens wurden entwickelt. Beide Methoden ermöglichen es, die mentalen Karten anhand speziell entwickelter Bewertungskriterien, wie Anzahl der Elemente und Eigenschaften der Straßen, quantitativ zu bewerten. Bezüglich der Erhebung mentaler Karten wurden zwei Erhebungsmethoden – Rekonstruktion mit Magnetstreifen und verbale Beschreibung – mit blinden Probanden hinsichtlich unterschiedlicher Aspekten untersucht. In zwei weiteren Untersuchungen wurden taktiles Paper-Prototyping und computerbasiertes Prototyping für die frühen Entwicklungsphasen bzw. Labor- und synchroner Remote-Test für die späteren Entwicklungsphasen mit blinden Benutzern verglichen. Dabei wurden die Effektivität der Evaluation, die Erkenntnisse und Erfahrungen der Probanden sowie des Testleiters als Vergleichskriterien in beiden Untersuchungen eingesetzt.
17

Konzepte der Anwendungsentwicklung für und mit Multi-Touch

Freitag, Georg 16 March 2015 (has links) (PDF)
Mit dem Aufkommen natürlicher Benutzerschnittstellen zum Erreichen einer möglichst intuitiven Interaktion mit Computern wird auch über die Bedeutung der Gestaltungsaspekte LOOK und FEEL der darzustellenden Benutzeroberflächen neu verhandelt. Dies bedeutet für den Entwurf und die Entwicklung neuer Anwendungen, die bisherigen Vorgehensmodelle, Werkzeuge und Interaktionen zu überdenken und hinsichtlich der neuen Herausforderungen zu überprüfen. Als Leitmotiv der vorliegenden Arbeit dient der Ansatz: Ähnliches wird durch Ähnliches entwickelt, der sich am Beispielfall der Multi-Touch-Technologie konkret mit dem Forschungsraum der natürlichen Benutzerschnittstellen auseinandersetzt. Anhand der drei aufeinander aufbauenden Aspekte Modell, Werkzeug und Interaktion wird die besondere Stellung des FEELs betont und diskutiert. Die Arbeit konzentriert sich dabei besonders auf die Phase des Prototypings, in der neue Ideen entworfen und später (weiter-) entwickelt werden. Die Arbeit nähert sich dabei dem Thema schrittweise an, vom Abstrakten hin zum Konkreten. Hierzu wird zunächst ein neu entwickeltes Vorgehensmodell vorgestellt, um auf die Besonderheiten des FEELs im Entwicklungsprozess natürlicher Benutzerschnittstellen eingehen zu können. Das Modell verbindet Ansätze agiler und klassischer Modelle, wobei die Iteration und die Entwicklung von Prototypen eine besondere Stellung einnehmen. Ausgehend vom neu vorgestellten Modell werden zwei Einsatzbereiche abgeleitet, die entsprechend des Leitmotivs der Arbeit mit zu konzipierenden Multi-Touch-Werkzeugen besetzt werden. Dabei wird besonderer Wert darauf gelegt, den Entwickler in die Rolle des Nutzers zu versetzen, indem die beiden Aktivitäten Umsetzung und Evaluation am selben Gerät stattfinden und fließend ineinander übergehen. Während das für den Entwurf erstellte Konzept TIQUID die Nachbildung von Verhalten und Abhängigkeiten mittels gestengesteuerter Animation ermöglicht, stellt das Konzept LIQUID dem Entwickler eine visuelle Programmiersprache zur Umsetzung des FEELs zur Verfügung. Die Bewertungen der beiden Werkzeuge erfolgte durch drei unabhängige Anwendungstests, welche die Einordnung im Entwicklungsprozess, den Vergleich mit alternativen Werkzeugen sowie die bevorzugte Interaktionsart untersuchten. Die Resultate der Evaluationen zeigen, dass die vorab gesteckten Zielstellungen einer einfachen Verwendung, der schnellen und umgehenden Darstellung des FEELs sowie die gute Bedienbarkeit mittels der Multi-Touch-Eingabe erfüllt und übertroffen werden konnten. Den Abschluss der Arbeit bildet die konkrete Auseinandersetzung mit der Multi-Touch-Interaktion, die für Entwickler und Nutzer die Schnittstelle zum FEEL der Anwendung ist. Die bisher auf die mittels Berührung beschränkte Interaktion mit dem Multi-Touch-Gerät wird im letzten Abschnitt der Arbeit mit Hilfe eines neuartigen Ansatzes um einen räumlichen Aspekt erweitert. Aus dieser Position heraus ergeben sich weitere Sichtweisen, die einen neuen Aspekt zum Verständnis von nutzerorientierten Aktivitäten beitragen. Diese, anhand einer technischen Umsetzung erprobte Vision neuer Interaktionskonzepte dient als Ansporn und Ausgangspunkt zur zukünftigen Erweiterung des zuvor entwickelten Vorgehensmodells und der konzipierten Werkzeuge. Der mit dieser Arbeit erreichte Stand bietet einen gesicherten Ausgangspunkt für die weitere Untersuchung des Fachgebietes natürlicher Benutzerschnittstellen. Neben zahlreichen Ansätzen, die zur vertiefenden Erforschung motivieren, bietet die Arbeit mit den sehr konkreten Umsetzungen TIQUID und LIQUID sowie der Erweiterung des Interaktionsraumes Schnittstellen an, um die erzielten Forschungsergebnisse in die Praxis zu übertragen. Eine fortführende Untersuchung des Forschungsraumes mit Hilfe alternativer Ansätze ist dabei ebenso denkbar wie der Einsatz einer zu Multi-Touch alternativen Eingabetechnologie.
18

Template-basierte Klassifikation planarer Gesten

Schmidt, Michael 09 July 2014 (has links) (PDF)
Pervasion of mobile devices led to a growing interest in touch-based interactions. However, multi-touch input is still restricted to direct manipulations. In current applications, gestural commands - if used at all - are only exploiting single-touch. The underlying motive for the work at hand is the conviction that a realization of advanced interaction techniques requires handy tools for supporting their interpretation. Barriers for own implementations of procedures are dismantled by providing proof of concept regarding manifold interactions, therefore, making benefits calculable to developers. Within this thesis, a recognition routine for planar, symbolic gestures is developed that can be trained by specifications of templates and does not imply restrictions to the versatility of input. To provide a flexible tool, the interpretation of a gesture is independent of its natural variances, i.e., translation, scale, rotation, and speed. Additionally, the essential number of specified templates per class is required to be small and classifications are subject to real-time criteria common in the context of typical user interactions. The gesture recognizer is based on the integration of a nearest neighbor approach into a Bayesian classification method. Gestures are split into meaningful, elementary tokens to retrieve a set of local features that are merged by a sensor fusion process to form a global maximum-likelihood representation. Flexibility and high accuracy of the approach is empirically proven in thorough tests. Retaining all requirements, the method is extended to support the prediction of partially entered gestures. Besides more efficient input, the possible specification of direct manipulation interactions by templates is beneficial. Suitability for practical use of all provided concepts is demonstrated on the basis of two applications developed for this purpose and providing versatile options of multi-finger input. In addition to a trainable recognizer for domain-independent sketches, a multi-touch text input system is created and tested with users. It is established that multi-touch input is utilized in sketching if it is available as an alternative. Furthermore, a constructed multi-touch gesture alphabet allows for more efficient text input in comparison to its single-touch pendant. The concepts presented in this work can be of equal benefit to UI designers, usability experts, and developers of feedforward-mechanisms for dynamic training methods of gestural interactions. Likewise, a decomposition of input into tokens and its interpretation by a maximum-likelihood matching with templates is transferable to other application areas as the offline recognition of symbols. / Obwohl berührungsbasierte Interaktionen mit dem Aufkommen mobiler Geräte zunehmend Verbreitung fanden, beschränken sich Multi-Touch Eingaben größtenteils auf direkte Manipulationen. Im Bereich gestischer Kommandos finden, wenn überhaupt, nur Single-Touch Symbole Anwendung. Der vorliegenden Arbeit liegt der Gedanke zugrunde, dass die Umsetzung von Interaktionstechniken mit der Verfügbarkeit einfach zu handhabender Werkzeuge für deren Interpretation zusammenhängt. Auch kann die Hürde, eigene Techniken zu implementieren, verringert werden, wenn vielfältige Interaktionen erprobt sind und ihr Nutzen für Anwendungsentwickler abschätzbar wird. In der verfassten Dissertation wird ein Erkenner für planare, symbolische Gesten entwickelt, der über die Angabe von Templates trainiert werden kann und keine Beschränkung der Vielfalt von Eingaben auf berührungsempfindlichen Oberflächen voraussetzt. Um eine möglichst flexible Einsetzbarkeit zu gewährleisten, soll die Interpretation einer Geste unabhängig von natürlichen Varianzen - ihrer Translation, Skalierung, Rotation und Geschwindigkeit - und unter wenig spezifizierten Templates pro Klasse möglich sein. Weiterhin sind für Nutzerinteraktionen im Anwendungskontext übliche Echtzeit-Kriterien einzuhalten. Der vorgestellte Gestenerkenner basiert auf der Integration eines Nächste-Nachbar-Verfahrens in einen Ansatz der Bayes\'schen Klassifikation. Gesten werden in elementare, bedeutungstragende Einheiten zerlegt, aus deren lokalen Merkmalen mittels eines Sensor-Fusion Prozesses eine Maximum-Likelihood-Repräsentation abgeleitet wird. Die Flexibilität und hohe Genauigkeit des statistischen Verfahrens wird in ausführlichen Tests nachgewiesen. Unter gleichbleibenden Anforderungen wird eine Erweiterung vorgestellt, die eine Prädiktion von Gesten bei partiellen Eingaben ermöglicht. Deren Nutzen liegt - neben effizienteren Eingaben - in der nachgewiesenen Möglichkeit, per Templates spezifizierte direkte Manipulationen zu interpretieren. Zur Demonstration der Praxistauglichkeit der präsentierten Konzepte werden exemplarisch zwei Anwendungen entwickelt und mit Nutzern getestet, die eine vielseitige Verwendung von Mehr-Finger-Eingaben vorsehen. Neben einem Erkenner trainierbarer, domänenunabhängiger Skizzen wird ein System für die Texteingabe mit den Fingern bereitgestellt. Anhand von Nutzerstudien wird gezeigt, dass Multi-Touch beim Skizzieren verwendet wird, wenn es als Alternative zur Verfügung steht und die Verwendung eines Multi-Touch Gestenalphabetes im Vergleich zur Texteingabe per Single-Touch effizienteres Schreiben zulässt. Von den vorgestellten Konzepten können UI-Designer, Usability-Experten und Entwickler von Feedforward-Mechanismen zum dynamischen Lehren gestischer Eingaben gleichermaßen profitieren. Die Zerlegung einer Eingabe in Token und ihre Interpretation anhand der Zuordnung zu spezifizierten Templates lässt sich weiterhin auf benachbarte Gebiete, etwa die Offline-Erkennung von Symbolen, übertragen.
19

Scientific journals go DAISY

Gardner, John A., Kelly, Robert A. 15 June 2011 (has links) (PDF)
ViewPlus is collaborating with the American Physical Society (APS), DAISY, and several other companies and agencies to enable APS to publish its scientific journals in the highly accessible DAISY XML format. All text, math, and figures will be accessible to everybody, including people with print disabilities. The first experimental APS DAISY publications are targeted for 2010. All APS journals will eventually be published in DAISY form, and other scholarly publishers are expected to follow suit.
20

DAISY Producer: An integrated production management system for accessible media

Egli, Christian 15 June 2011 (has links) (PDF)
Large scale production of accessible media above and beyond DAISY Talking Books requires management of the workflow from the initial scan to the output of the media production. DAISY Producer was created to help manage this process. It tracks the transformation of hard copy or electronic content to DTBook XML at any stage of the workflow and interfaces to existing order processing systems. Making use of DAISY Pipeline and Liblouis, DAISY Producer fully automates the generation of on-demand, user-specific DAISY Talking Books, Large Print and Braille. This paper introduces DAISY Producer and shows how creators of accessible media can benefit from this open source tool.

Page generated in 0.022 seconds