• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 18
  • Tagged with
  • 36
  • 36
  • 36
  • 22
  • 11
  • 11
  • 11
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Adapting diagrams for DAISY books

Burger, Dominique, Motti, Lilian Genaro 15 June 2011 (has links) (PDF)
Looking for the best way to publish accessible graphics, this presentation gives some information about how to deal with non-textual contents when adapting documents for DAISY books. It is based on a study conducted by Braillenet for enriching the Helene’s digital library with technical contents. By analysing publishing guidelines, transcribers’ work in specialized centres and main relief printing formats, this work presents thoughts on how to analyse a graphical content, how to produce vectorial images, the main steps for preparing digital image files that could be downloaded and printed, how to index these files into the DAISY book, and finally make them accessible.
22

Getting the most out of DAISY using synthetic speech

Hubert, Wolfgang 25 July 2011 (has links) (PDF)
RTFC is a multichannel publishing tool which has been designed to convert text documents into several accessible formats. You can produce books in common file formats like plain text, HTML and HTML Help as well as large print, Braille, web Braille and DAISY. It implements a standard for e-books which was created at German schools for the blind. This standard makes it possible to get the most out of DAISY even though desktop publishing software often has no capabilities to mark up optional content like annotations or sidebars. Therefore RTFC is especially suitable to convert school books and other non-fiction literature.
23

Translation from Braille Music Mark-up Language to DAISYXML

Jessel, Nadine Baptiste, Cubero, Javier Asensio 23 November 2011 (has links) (PDF)
As result of the Contrapunctus European project the design of the Braille Music Mark-up as an XML representation of a music scores in Braille has been carried out. We propose a design of a prototype system for translating these kinds of files into spoken music encoded in DAISYXML. In this way any blind musician may be able to memorize any Braille score using a DAISY reader. Therefore the dependency of reading BMML files in front of a computer would be eliminated. This is a first work on feasibility which will be improved and managed by a working group.
24

Automatic conversion of PDF-based, layout-oriented typesetting data to DAISY: potentials and limitations

Nikolaus, Ulrich, Dobroschke, Julia 24 June 2010 (has links) (PDF)
Only two percent of new books released in Germany are professionally edited for visually impaired people. However, more and more print publications are made available to the public in digital formats through online content delivery platforms like “libreka!”. The automatic conversion of such contents into DAISY would considerably increase the number of publications available in accessible formats. Still, most data available on “libreka!” is published as non-tagged PDF. In this paper, we examine the potential for automatic conversion of “libreka!”-based content into DAISY, while also analyzing the potentials and limitations of current conversion tools.
25

Lernfortschrittsanzeige in eLearning-Szenarien

Mauersberger, Albrecht 23 August 2010 (has links) (PDF)
Die Evaluation von Lernmanagementsystem (LMS) unter didaktischen Gesichtspunkten hat ergeben, dass es den meisten gängigen LMS an einer brauchbaren Lernfortschrittsanzeige mangelt. Dies ist, wie auch Nutzerbefragungen zeigen, insbesondere in Individuallernszenarien ein gravierendes Problem mit starken Auswirkungen auf die Motivation der Lernenden. Ausgehend von dieser Situation wurde in der Arbeit eine didaktisch begründete Lernfortschrittsanzeige entworfen, implementiert und getestet. Im ersten Teil der Arbeit ist die Bedeutung der Lernfortschrittsanzeige in eLearning-Szenarien unter psychologischen und didaktischen Gesichtspunkten untersucht worden. Dabei wurde zum einen begründet, warum das Fehlen einer solchen Anzeige zu Problemen führt, zum anderen sind aus diesen Untersuchungen heraus Anforderungen an eine sinnvolle Gestaltung einer solchen Anzeige abgeleitet worden. Im zweiten Teil der Arbeit ist den ermittelten Anforderungen der IST-Zustand dieses Features in gängigen LMS gegenüber gestellt worden. Dafür wurden acht LMS ausgewählt, die in dieser Hinsicht unterschiedliche Ansätze verfolgen. Anschließend wurde unter Berücksichtigung der vorhergehenden Analysen ein eigener Ansatz entwickelt, prototypisch implementiert und evaluiert.
26

Personalized Interaction with High-Resolution Wall Displays

von Zadow, Ulrich 05 June 2018 (has links) (PDF)
Fallende Hardwarepreise sowie eine zunehmende Offenheit gegenüber neuartigen Interaktionsmodalitäten haben in den vergangen Jahren den Einsatz von wandgroßen interaktiven Displays möglich gemacht, und in der Folge ist ihre Anwendung, unter anderem in den Bereichen Visualisierung, Bildung, und der Unterstützung von Meetings, erfolgreich demonstriert worden. Aufgrund ihrer Größe sind Wanddisplays für die Interaktion mit mehreren Benutzern prädestiniert. Gleichzeitig kann angenommen werden, dass Zugang zu persönlichen Daten und Einstellungen — mithin personalisierte Interaktion — weiterhin essentieller Bestandteil der meisten Anwendungsfälle sein wird. Aktuelle Benutzerschnittstellen im Desktop- und Mobilbereich steuern Zugriffe über ein initiales Login. Die Annahme, dass es nur einen Benutzer pro Bildschirm gibt, zieht sich durch das gesamte System, und ermöglicht unter anderem den Zugriff auf persönliche Daten und Kommunikation sowie persönliche Einstellungen. Gibt es hingegen mehrere Benutzer an einem großen Bildschirm, müssen hierfür Alternativen gefunden werden. Die daraus folgende Forschungsfrage dieser Dissertation lautet: Wie können wir im Kontext von Mehrbenutzerinteraktion mit wandgroßen Displays personalisierte Schnittstellen zur Verfügung stellen? Die Dissertation befasst sich sowohl mit personalisierter Interaktion in der Nähe (mit Touch als Eingabemodalität) als auch in etwas weiterer Entfernung (unter Nutzung zusätzlicher mobiler Geräte). Grundlage für personalisierte Mehrbenutzerinteraktion sind technische Lösungen für die Zuordnung von Benutzern zu einzelnen Interaktionen. Hierzu werden zwei Alternativen untersucht: In der ersten werden Nutzer via Kamera verfolgt, und in der zweiten werden Mobilgeräte anhand von Ultraschallsignalen geortet. Darauf aufbauend werden Interaktionstechniken vorgestellt, die personalisierte Interaktion unterstützen. Diese nutzen zusätzliche Mobilgeräte, die den Zugriff auf persönliche Daten sowie Interaktion in einigem Abstand von der Displaywand ermöglichen. Einen weiteren Teil der Arbeit bildet die Untersuchung der praktischen Auswirkungen der Ausgabe- und Interaktionsmodalitäten für personalisierte Interaktion. Hierzu wird eine qualitative Studie vorgestellt, die Nutzerverhalten anhand des kooperativen Mehrbenutzerspiels Miners analysiert. Der abschließende Beitrag beschäftigt sich mit dem Analyseprozess selber: Es wird das Analysetoolkit für Wandinteraktionen GIAnT vorgestellt, das Nutzerbewegungen, Interaktionen, und Blickrichtungen visualisiert und dadurch die Untersuchung der Interaktionen stark vereinfacht. / An increasing openness for more diverse interaction modalities as well as falling hardware prices have made very large interactive vertical displays more feasible, and consequently, applications in settings such as visualization, education, and meeting support have been demonstrated successfully. Their size makes wall displays inherently usable for multi-user interaction. At the same time, we can assume that access to personal data and settings, and thus personalized interaction, will still be essential in most use-cases. In most current desktop and mobile user interfaces, access is regulated via an initial login and the complete user interface is then personalized to this user: Access to personal data, configurations and communications all assume a single user per screen. In the case of multiple people using one screen, this is not a feasible solution and we must find alternatives. Therefore, this thesis addresses the research question: How can we provide personalized interfaces in the context of multi-user interaction with wall displays? The scope spans personalized interaction both close to the wall (using touch as input modality) and further away (using mobile devices). Technical solutions that identify users at each interaction can replace logins and enable personalized interaction for multiple users at once. This thesis explores two alternative means of user identification: Tracking using RGB+depth-based cameras and leveraging ultrasound positioning of the users' mobile devices. Building on this, techniques that support personalized interaction using personal mobile devices are proposed. In the first contribution on interaction, HyDAP, we examine pointing from the perspective of moving users, and in the second, SleeD, we propose using an arm-worn device to facilitate access to private data and personalized interface elements. Additionally, the work contributes insights on practical implications of personalized interaction at wall displays: We present a qualitative study that analyses interaction using a multi-user cooperative game as application case, finding awareness and occlusion issues. The final contribution is a corresponding analysis toolkit that visualizes users' movements, touch interactions and gaze points when interacting with wall displays and thus allows fine-grained investigation of the interactions.
27

Towards Collaborative Session-based Semantic Search

Straub, Sebastian 11 October 2017 (has links) (PDF)
In recent years, the most popular web search engines have excelled in their ability to answer short queries that require clear, localized and personalized answers. When it comes to complex exploratory search tasks however, the main challenge for the searcher remains the same as back in the 1990s: Trying to formulate a single query that contains all the right keywords to produce at least some relevant results. In this work we want to investigate new ways to facilitate exploratory search by making use of context information from the user's entire search process. Therefore we present the concept of session-based semantic search, with an optional extension to collaborative search scenarios. To improve the relevance of search results we expand queries with terms from the user's recent query history in the same search context (session-based search). We introduce a novel method for query classification based on statistical topic models which allows us to track the most important topics in a search session so that we can suggest relevant documents that could not be found through keyword matching. To demonstrate the potential of these concepts, we have built the prototype of a session-based semantic search engine which we release as free and open source software. In a qualitative user study that we have conducted, this prototype has shown promising results and was well-received by the participants. / Die führenden Web-Suchmaschinen haben sich in den letzten Jahren gegenseitig darin übertroffen, möglichst leicht verständliche, lokalisierte und personalisierte Antworten auf kurze Suchanfragen anzubieten. Bei komplexen explorativen Rechercheaufgaben hingegen ist die größte Herausforderung für den Nutzer immer noch die gleiche wie in den 1990er Jahren: Eine einzige Suchanfrage so zu formulieren, dass alle notwendigen Schlüsselwörter enthalten sind, um zumindest ein paar relevante Ergebnisse zu erhalten. In der vorliegenden Arbeit sollen neue Methoden entwickelt werden, um die explorative Suche zu erleichtern, indem Kontextinformationen aus dem gesamten Suchprozess des Nutzers einbezogen werden. Daher stellen wir das Konzept der sitzungsbasierten semantischen Suche vor, mit einer optionalen Erweiterung auf kollaborative Suchszenarien. Um die Relevanz von Suchergebnissen zu steigern, werden Suchanfragen mit Begriffen aus den letzten Anfragen des Nutzers angereichert, die im selben Suchkontext gestellt wurden (sitzungsbasierte Suche). Außerdem wird ein neuartiger Ansatz zur Klassifizierung von Suchanfragen eingeführt, der auf statistischen Themenmodellen basiert und es uns ermöglicht, die wichtigsten Themen in einer Suchsitzung zu erkennen, um damit weitere relevante Dokumente vorzuschlagen, die nicht durch Keyword-Matching gefunden werden konnten. Um das Potential dieser Konzepte zu demonstrieren, wurde im Rahmen dieser Arbeit der Prototyp einer sitzungsbasierten semantischen Suchmaschine entwickelt, den wir als freie Software veröffentlichen. In einer qualitativen Nutzerstudie hat dieser Prototyp vielversprechende Ergebnisse hervorgebracht und wurde von den Teilnehmern positiv aufgenommen.
28

Leitfaden für die barrierefreie Gestaltung von Web-Angeboten in Bibliotheken

Schwartz, Eva-Maria, Rößner, Susanne 18 March 2010 (has links) (PDF)
Das vorliegende Handbuch gibt Bibliotheksangestellten, die sich mit der Aufbereitung und Einstellung von Webinhalten befassen, einen Einblick in die Problematik „Barrierefreiheit“. Dabei wird im Speziellen auf die Belange von Bibliotheken eingegangen und in diesem Zuge Richtlinien und Gesetze vorgestellt, die eine wichtige Rolle spielen. Anschließend wird auf die Barrieren eingegangen, die im Internet entstehen können. Zudem wird gezeigt, wie man diese Barrieren verhindert oder beseitigt. Das Handbuch gibt praktische Tipps, in dem es Hilfsmittel und Quellcode-Beispiel vorstellt, die zur barrierefreien Gestaltung eingesetzt werden können.
29

Formalisierung gestischer Eingabe für Multitouch-Systeme

Kammer, Dietrich 03 July 2014 (has links) (PDF)
Die Mensch-Computer-Interaktion wird dank neuer Eingabemöglichkeiten jenseits von Tastatur und Maus reicher, vielseitiger und intuitiver. Durch den Verzicht auf zusätzliche Geräte beim Umgang mit Computern geht seitens der Eingabeverarbeitung jedoch eine erhöhte Komplexität einher: Die Programmierung gestischer Eingabe für Multitouch-Systeme ist in derzeitigen Frameworks abgesehen von den verfügbaren Standard-Gesten mit hohem Aufwand verbunden. Die entwickelte Gestenformalisierung für Multitouch (GeForMT) definiert eine domänenspezifische Sprache zur Beschreibung von Multitouch-Gesten. Statt wie verwandte Formalisierungsansätze detaillierte Filter für die Rohdaten zu definieren, bedient sich GeForMT eines bildhaften Ansatzes, um Gesten zu beschreiben. Die Konzeption von Gesten wird unterstützt, indem beispielsweise in einem frühen Stadium der Entwicklung Konflikte zwischen ähnlichen Gesten aufgedeckt werden. Die formalisierten Gesten lassen sich direkt in den Code einbetten und vereinfachen damit die Programmierung. Das zugrundeliegende Framework sorgt für die Verbindung zu den Algorithmen der Gestenerkennung. Die Übertragung des semiotischen Ansatzes zur Formalisierung auf andere Formen gestischer Eingabe wird abschließend diskutiert.
30

Die Werkstatt

05 February 2014 (has links) (PDF)
Durch die Entwicklung von Computermaus und Desktop-Metapher in den 70er Jahren wurde der Rechner Teil des Arbeitslebens. Viele Innovationen beruhten nicht nur auf dem Erhöhen der Rechenkapazität, sondern auf dem Paradigmenwechsel von textbasierten zu grafik-basierten Systemen. Heutzutage durchdringen Rechner wesentliche Teile unserer Alltagsgestaltung. Neben Smartphones stellen Tablets und Bewegungssensoren neue Geräteklassen mit neuartigen Bedienparadigmen dar. Entwicklungszyklen werden immer kürzer. Entwickler zukünftiger Benutzerschnittstellen, also heutige Studierende, müssen auf Paradigmenwechsel und sich schnell ändernde Problemstellungen vorbereitet werden. Neue Lehrkonzepte versuchen das zu leisten. Der Bildband stellt den Ablauf und die Ergebnisse der Werkstatt dar, eines praxisorientierten Lehrangebotes zur Entwicklung neuartiger Mensch-Computer Schnittstellen.

Page generated in 0.016 seconds