• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Editor de Documentos XML Usando Plantillas y Transformaciones

Hernández Hernández, Daniel Ricardo January 2011 (has links)
La edición de datos semi-estructurados, en particular de documentos XML, es habitualmente abordada con formularios e interfaces de edición para tablas (scaffolds), herramientas diseñadas para trabajar con datos estructurados. Otras herramientas que sí pueden abordar modelos semi-estructurados (como XForms y XTiger) no poseen un lenguaje completamente declarativo y están limitadas a modelos no recursivos. Estas limitaciones implican un mayor costo en el desarrollo de aplicaciones que trabajan con datos semi-estructurados. En esta memoria se propone un lenguaje de plantillas, que bautizamos Queule, basado en XTiger, para la edición de datos semi-estructurados. Queule reduce los costos de implementar interfaces de edición al permitir la definición declarativa de interfaces para los modelos y al incluir el soporte a modelos recursivos. Las plantillas, al igual que los esquemas de datos (DTD, XML Schema, Schematron, RELAX NG, etc.), permiten delimitar el universo de las instancias que satisfacen un modelo. A diferencia de los esquemas, en los que se habitualmente se provee de algoritmos para decidir si se satisface un esquema, las plantillas proveen mecanismos para editar los datos definiendo de manera constructiva las restricciones del modelo. La idea de usar transformaciones, unidireccionales o bidireccionales, mencionada en el título de esta memoria, estaba motivada por el almacenamiento de los datos en un documento distinto al usado como plantilla. Al inicio del desarrollo de esta memoria, las transformaciones cumplían un rol central en el sistema que, no obstante, perdió relevancia cuando se descubrió la posibilidad, y conveniencia, de que una plantilla no estuviera reflejada necesariamente en un sólo documento de una base documental, si no más bien, en una vista de una base de datos cualquiera. De este modo, los cambios no esperarían al término de la edición para ser enviados en la forma del documento editado, sino que podrían enviarse de manera asíncrona a medida que se edita. En el desarrollo de esta memoria se implementó un intérprete para la versión 1.0 del lenguaje Queule que se limita a la definición de estructuras de árbol que consideran el orden entre los nodos hermanos. Futuras versiones de Queule, podrían extender la edición a un modelo de grafos más general. El funcionamiento de Queule 1.0 es ejemplificado con varias plantillas que pueden ser editadas usando los navegadores Web más populares debido a que el intérprete fue programado como una biblioteca JavaScript.
2

Diagnóstico da aplicação de cores em projetos web baseado em uma metodologia. / Diagnostics of colors application in the web design based on a methodology.

Buchdid, Samuel Bastos 26 May 2006 (has links)
Made available in DSpace on 2016-06-02T19:05:20Z (GMT). No. of bitstreams: 1 DissSBB.pdf: 35935533 bytes, checksum: 7989437b4bc5e6cb34047bf64fb5ab61 (MD5) Previous issue date: 2006-05-26 / Financiadora de Estudos e Projetos / This work have used a colors application methodology in the project Web, elaborated by Luciana Martha Silveira, as a systematic of analysis of virtual environments, applied here in the domain of Distance Learning (DL). That methodology presents five fundamental axes which include the physical, physiologic and symbolic aspects involved in the chromatic perception. The search for problems identification and the aiming for their possible solutions was the main goal of the present work, in agreement with the chromatic context that each site is inserted, considering the need to have a way of revising the systems Web, which are available to the visitors of those websites. The recurring problems in sites were identified in that application domain, and the solutions were aimed in regard of the methodology applied. It is waited that the formalized results in the analyses and the identification of the problem/solution pairs in that domain of colors application would be able to help the designer in chromatic composition of sites aesthetically more attractive and intuitive, including a larger degree usability. / Neste trabalho, adotou-se uma metodologia de aplicação de cores no projeto Web, elaborada pela Profª. Drª. Luciana Martha Silveira, como uma sistemática de análise de ambientes virtuais, instanciando, aqui, o domínio de Educação à Distância (EAD). Essa metodologia apresenta cinco eixos fundamentais, que englobam os aspectos físicos, fisiológicos e simbólicos envolvidos na percepção cromática. Buscou-se identificar problemas e apontar as possíveis soluções, de acordo com o contexto cromático que cada site está inserido, considerando a necessidade de ter uma forma de revisar os sistemas Web que são disponibilizados aos visitantes desses sites. Foram identificados os problemas recorrentes em sites desse domínio de aplicação, descrevendo as soluções apontadas pela metodologia. Espera-se que os resultados formalizados das análises, bem como a identificação dos pares de problema/solução nesse domínio de aplicação de cores possam auxiliar os projetistas na composição cromática de sites esteticamente mais atraentes, intuitivos e com maior grau de usabilidade.
3

Migration d'interfaces utilisateurs textuelles de systèmes patrimoniaux vers le Web

Loghmani, Shadi 20 April 2018 (has links)
Les interfaces utilisateurs détiennent une importance non négligeable dans tout logiciel applicatif, car elles constituent le premier contact entre les utilisateurs et le logiciel. La migration d'interfaces utilisateurs textuelles de systèmes patrimoniaux vers le Web vise à remédier les problèmes liés à l'accès limité de tels systèmes tout en améliorant l'aspect et la convivialité de ces interfaces. Fréquemment, cela implique à la fois le changement de la plate-forme d'exécution - d'une plate-forme textuelle vers une architecture Web - et la refonte complète des interfaces vers une technologie de présentation Web. Ce mémoire est une synthèse des méthodes et des techniques de migration d'interfaces utilisateurs textuelles vers le Web. Nous y abordons, dans un premier temps, les notions reliées aux systèmes patrimoniaux et au Web. Cela permet d'établir le contexte de notre étude à savoir l'environnement de départ et l'environnement cible dans une migration d'interfaces utilisateurs vers le Web. Dans un deuxième temps, nous exposons différentes techniques et approches de migration d'interfaces utilisateurs. Finalement, nous terminons notre présentation avec trois exemples de plates-formes de migration d'interfaces utilisateurs.
4

Façonner l’engagement du public par l’éditorialisation narrative : design et évaluation d’un artefact de médiation numérique patrimoniale

Miranda Barrantes, Ximena 26 April 2024 (has links)
Thèse en cotutelle : Université Laval,Québec, Canada, Philosophiæ doctor (Ph. D.) et Université Polytechnique Hauts-de-France Valenciennes, France / Les artéfacts de médiation issus des initiatives de numérisation patrimoniale affrontent des défis majeurs concernant notamment l'intégration de conventions émergentes ainsi que la création d'expériences satisfaisantes pour les usagères et usagers. Si les musées, les galeries, les archives ou les bibliothèques déploient différentes stratégies d'éditorialisation de leurs collections numérisées, sans méthode d'évaluation précise de l'impact des choix de conception sur la réception, mesurer leur efficacité pour captiver le public reste complexe. La présente recherche-création explore comment les modalités d'engagement des usagères et usagers avec un patrimoine en ligne sont influencées par les différents aspects du design d'un artéfact de médiation. Le prototypage d'une interface, Entre parcelles et portraits (2020-2022), ayant pour sujet principal le campesino (paysan) costaricien, permet d'examiner le potentiel narratif de l'éditorialisation pour la valorisation du patrimoine et de soulever des questions sur les interactions entre patrimoine, public et artéfact de médiation. Cette recherche propose un modèle d'engagement à six niveaux, fondé sur des principes d'ergonomie cognitive et d'interaction humain-machine, en articulation avec des concepts liés à l'immersion narrative. Sur le plan méthodologique, elle établit un protocole d'évaluation en interaction humain-machine et un indicateur de qualité basé sur la réception des artéfacts. À l'aide de ce protocole, la thèse teste le rapport entre les caractéristiques de l'interface et les effets narratifs sur l'engagement, démontrant ainsi la pertinence de l'éditorialisation narrative pour la médiation patrimoniale en ligne. / The artifacts of heritage digitization initiatives face significant challenges, particularly in integrating emerging conventions and creating satisfying experiences for users. While cultural institutions employ various editorialization strategies for their digitized collections, the lack of a precise evaluation method for assessing the impact of design choices on reception makes measuring their effectiveness complex. This research-creation project explores how user engagement with online heritage is influenced by different aspects of artifact mediation design. The prototyping of an interface called Entre parcelles et portraits (2020-2022), focuses on the case of the Costa Rican peasant to examine the narrative potential of editorialization for heritage valorization and raises questions about the interactions between heritage, the public, and mediation artifacts. The study proposes a six-level engagement model based on cognitive ergonomics and human-computer interaction principles, articulated with concepts related to narrative immersion. Methodologically, it establishes an interactive human-computer evaluation protocol and a quality indicator based on artifact reception. Using this protocol, the thesis tests the relationship between interface characteristics and narrative effects on engagement, demonstrating the relevance of narrative editorialization for online heritage mediation.
5

Entwicklung eines Editors zum Entwurf von Benutzerschnittstellen für Web Services auf Basis der abstrakten UI-Beschreibungssprache WSGUI

Spillner, Josef 19 September 2006 (has links)
Diese Diplomarbeit behandelt das Themengebiet der automatischen Erzeugung von grafischen Benutzeroberflächen (GUIs) im Kontext von Webservices. Es geht dabei konkret um einen Editor, mit dem Hinweise zur Generierung von Dialogen erstellt werden können. Diese Hinweise sollen dann von den dialogerzeugenden Anwendungen einbezogen werden, um eine dynamische Interaktion mit Webservices durch beliebige Nutzer ohne dienstspezifische Software zu ermöglichen. Die Arbeit führt in die aktuellen Techniken zur GUI-Generierung ein und stellt Transformationsprinzipien vor, die eine Generierung ausgehend von einem formalen Datenmodell ermöglichen. Dabei müssen mangelnde Modellparameter in Beschreibungen von Webservices manuell ausgeglichen werden (WSGUI-Konzepte). Diese Zielstellung führt zum Entwurf des WSGUI-Editors. Die anschließende Implementierung berücksichtigt darüber hinaus Integrationsaspekte wie die Publizierung von WSGUI-Hinweisen, Einbindung von GUI-Übersetzungen und eine Vorschau auf die zu generierenden Dialoge. Abgeschlossen wird die Arbeit mit einer Bewertung des Editors, aber auch einer Reihe von Vorschlägen zur Vereinfachung ähnlich gelagerter zukünftiger Projekte im Umfeld von Webservices.
6

"EMEET/SERVE: geração sob-demanda de hiperdocumentos multimídia a partir de informação capturada em reuniões distribuídas" / eMeet/SERVE: automated generation of multimedia hyperdocuments by means of captured information from distributed meetings

Pedro Monteiro da Silva Eleutério 05 June 2002 (has links)
A literatura apresenta muitos sistemas que foram desenvolvidos a fim de automatizar o processo de geração de hiperdocumentos multimídia a partir de experiências ao vivo; ambientes educacionais e de reunião são os domínios de aplicação mais comuns. Conforme reportados, os sistemas não contemplam características importantes relativas à evolução de hiperdocumentos Web, tais como a possibilidade de atualizações constantes de conteúdo e de layout, e a independência de plataforma. Este trabalho visa a implementação do sistema eMeet/SERVE, que realiza a geração automática de hiperdocumentos multimídia a partir de informações capturadas em ambientes de reuniões distribuídas na Web. O eMeet/SERVE foi implementado com a utilização da arquitetura LAIAc – proposta neste trabalho – habilitada a suportar a evolução dos hiperdocumentos gerados. As interfaces dos hiperdocumentos gerados pelo eMeet/SERVE foram desenvolvidas a partir de padrões e regras propostas na literatura. Além disso, um mecanismo de sincronização foi implementado nos hiperdocumentos a fim de permitir uma reprodução adequada dos elementos multimídia. A arquitetura LAIAc pode ser utilizada por outros sistemas associados à geração automática de hiperdocumentos. Com a realização deste trabalho, o eMeet/SERVE está preparado para integração com outros serviços implementados no contexto do projeto maior em que se insere, o Projeto InCA-SERVE, visando a evolução contínua dos hiperdocumentos gerados automaticamente. / The literature discusses many software systems developed to automate the process of generating multimedia hyperdocuments from live experiences; educational and meeting environments are the most common application domains. As reported, those systems do not present features considered important towards the evolution of hyperdocuments associated to live experiences, such as support to constant updates of contents or changes in layout as well as independence of platform. The work reported in this document aims at developing the eMeet/SERVE application, a system that allows the automatic generation of multimedia hyperdocuments by means of captured information from distributed meetings environments on the Web. The eMeet/SERVE system is implemented on top of the LAIAc architecture – also proposed in this work – an architecture enabled to support the evolution of the hyperdocuments. The presentation interfaces of the hyperdocuments have been developed according to state of the art heuristics and guidelines. Moreover, a synchronization mechanism has been embedded in the hyperdocuments to allow the appropriate playback of multimedia objects. The LAIAc architecture itself can be used by other applications associated to the automatic generation of hyperdocuments. The eMeet/SERVE is part of the InCA-SERVE Project and, as implemented, it is ready to be integrated with other services implemented in the context of that project; the overall goal is the support to the evolution of the hyperdocuments generated automatically.
7

"EMEET/SERVE: geração sob-demanda de hiperdocumentos multimídia a partir de informação capturada em reuniões distribuídas" / eMeet/SERVE: automated generation of multimedia hyperdocuments by means of captured information from distributed meetings

Eleutério, Pedro Monteiro da Silva 05 June 2002 (has links)
A literatura apresenta muitos sistemas que foram desenvolvidos a fim de automatizar o processo de geração de hiperdocumentos multimídia a partir de experiências ao vivo; ambientes educacionais e de reunião são os domínios de aplicação mais comuns. Conforme reportados, os sistemas não contemplam características importantes relativas à evolução de hiperdocumentos Web, tais como a possibilidade de atualizações constantes de conteúdo e de layout, e a independência de plataforma. Este trabalho visa a implementação do sistema eMeet/SERVE, que realiza a geração automática de hiperdocumentos multimídia a partir de informações capturadas em ambientes de reuniões distribuídas na Web. O eMeet/SERVE foi implementado com a utilização da arquitetura LAIAc – proposta neste trabalho – habilitada a suportar a evolução dos hiperdocumentos gerados. As interfaces dos hiperdocumentos gerados pelo eMeet/SERVE foram desenvolvidas a partir de padrões e regras propostas na literatura. Além disso, um mecanismo de sincronização foi implementado nos hiperdocumentos a fim de permitir uma reprodução adequada dos elementos multimídia. A arquitetura LAIAc pode ser utilizada por outros sistemas associados à geração automática de hiperdocumentos. Com a realização deste trabalho, o eMeet/SERVE está preparado para integração com outros serviços implementados no contexto do projeto maior em que se insere, o Projeto InCA-SERVE, visando a evolução contínua dos hiperdocumentos gerados automaticamente. / The literature discusses many software systems developed to automate the process of generating multimedia hyperdocuments from live experiences; educational and meeting environments are the most common application domains. As reported, those systems do not present features considered important towards the evolution of hyperdocuments associated to live experiences, such as support to constant updates of contents or changes in layout as well as independence of platform. The work reported in this document aims at developing the eMeet/SERVE application, a system that allows the automatic generation of multimedia hyperdocuments by means of captured information from distributed meetings environments on the Web. The eMeet/SERVE system is implemented on top of the LAIAc architecture – also proposed in this work – an architecture enabled to support the evolution of the hyperdocuments. The presentation interfaces of the hyperdocuments have been developed according to state of the art heuristics and guidelines. Moreover, a synchronization mechanism has been embedded in the hyperdocuments to allow the appropriate playback of multimedia objects. The LAIAc architecture itself can be used by other applications associated to the automatic generation of hyperdocuments. The eMeet/SERVE is part of the InCA-SERVE Project and, as implemented, it is ready to be integrated with other services implemented in the context of that project; the overall goal is the support to the evolution of the hyperdocuments generated automatically.
8

An?lise comparativa da acessibilidade para cegos de ambientes digitais para gerenciamento de aprendizagem para educa??o a dist?ncia / Comparative analysys of accessibility of e-Iearning management education environments for the blind

Silva, Andr? Luiz da 30 May 2007 (has links)
Submitted by SBI Biblioteca Digital (sbi.bibliotecadigital@puc-campinas.edu.br) on 2018-06-07T14:48:53Z No. of bitstreams: 1 Andre Luiz da Silva.pdf: 21913229 bytes, checksum: a21aa44045c7a96617c071e0837056d8 (MD5) / Made available in DSpace on 2018-06-07T14:48:53Z (GMT). No. of bitstreams: 1 Andre Luiz da Silva.pdf: 21913229 bytes, checksum: a21aa44045c7a96617c071e0837056d8 (MD5) Previous issue date: 2007-05-30 / This study describes a comparative analysys of accessibility for the blind used in SGEAD (Distant Learning Management Systems), TelEduc and WebCT according to criteria, recommendations and international norms such as heuristical evaluation techniques, automatic test of accessibility, inspection based on the points of verification of the W3C recommendations for the accessibility of the content of the Web 1.0 and from tasks reports and questionnaires conducted with the users. One of the goals of this researches is to demonstrate the importance of the use of standards and guides for Web accessibility as support for accessibility for the blind in the current scenario of digital inclusion. The quality of the interface is essencial for the success of distant learning interactive systems. It is expected that this study will contribute to the production of knowledge that will guide and support the professionals involved with e-Iearning. / Este estudo descreve a an?lise comparativa de acessibilidade para cegos aplicadas nos Sistemas de Gerenciamento para Educa??o a Dist?ncia (SGEAD) TelEduc e WebCT, segundo os crit?rios, recomenda??es e normas internacionais, tais como, t?cnicas de avalia??o heur?stica, teste autom?tico de acessibilidade, inspe??o baseada nos pontos de verifica??o das recomenda??es para a acessibilidade do conte?do da Web 1.0 do W3C e de tarefas e question?rios com os usu?rios. Um dos objetivos desta pesquisa ? demonstrar a import?ncia da utiliza??o de padr?es e guias para a Acessibilidade Web como fator de apoio a acessibilidade para cegos dentro do atual cen?rio de inclus?o digital. A qualidade da interface ? fundamental para que sistemas interativos de educa??o a dist?ncia possam ser utilizados com sucesso. Espera-se com este estudo, contribuir para a produ??o de conhecimentos que sirvam para orientar e apoiar os profissionais envolvidos com a educa??o computadorizada.
9

Search Interaction Optimization: A Human-Centered Design Approach

Speicher, Maximilian 20 September 2016 (has links)
Over the past 25 years, search engines have become one of the most important, if not the entry point of the World Wide Web. This development has been primarily due to the continuously increasing amount of available documents, which are highly unstructured. Moreover, the general trend is towards classifying search results into categories and presenting them in terms of semantic information that answer users' queries without having to leave the search engine. With the growing amount of documents and technological enhancements, the needs of users as well as search engines are continuously evolving. Users want to be presented with increasingly sophisticated results and interfaces while companies have to place advertisements and make revenue to be able to offer their services for free. To address the above needs, it is more and more important to provide highly usable and optimized search engine results pages (SERPs). Yet, existing approaches to usability evaluation are often costly or time-consuming and mostly rely on explicit feedback. They are either not efficient or not effective while SERP interfaces are commonly optimized primarily from a company's point of view. Moreover, existing approaches to predicting search result relevance, which are mostly based on clicks, are not tailored to the evolving kinds of SERPs. For instance, they fail if queries are answered directly on a SERP and no clicks need to happen. Applying Human-Centered Design principles, we propose a solution to the above in terms of a holistic approach that intends to satisfy both, searchers and developers. It provides novel means to counteract exclusively company-centric design and to make use of implicit user feedback for efficient and effective evaluation and optimization of usability and, in particular, relevance. We define personas and scenarios from which we infer unsolved problems and a set of well-defined requirements. Based on these requirements, we design and develop the Search Interaction Optimization toolkit. Using a bottom-up approach, we moreover define an eponymous, higher-level methodology. The Search Interaction Optimization toolkit comprises a total of six components. We start with INUIT [1], which is a novel minimal usability instrument specifically aiming at meaningful correlations with implicit user feedback in terms of client-side interactions. Hence, it serves as a basis for deriving usability scores directly from user behavior. INUIT has been designed based on reviews of established usability standards and guidelines as well as interviews with nine dedicated usability experts. Its feasibility and effectiveness have been investigated in a user study. Also, a confirmatory factor analysis shows that the instrument can reasonably well describe real-world perceptions of usability. Subsequently, we introduce WaPPU [2], which is a context-aware A/B testing tool based on INUIT. WaPPU implements the novel concept of Usability-based Split Testing and enables automatic usability evaluation of arbitrary SERP interfaces based on a quantitative score that is derived directly from user interactions. For this, usability models are automatically trained and applied based on machine learning techniques. In particular, the tool is not restricted to evaluating SERPs, but can be used with any web interface. Building on the above, we introduce S.O.S., the SERP Optimization Suite [3], which comprises WaPPU as well as a catalog of best practices [4]. Once it has been detected that an investigated SERP's usability is suboptimal based on scores delivered by WaPPU, corresponding optimizations are automatically proposed based on the catalog of best practices. This catalog has been compiled in a three-step process involving reviews of existing SERP interfaces and contributions by 20 dedicated usability experts. While the above focus on the general usability of SERPs, presenting the most relevant results is specifically important for search engines. Hence, our toolkit contains TellMyRelevance! (TMR) [5] — the first end-to-end pipeline for predicting search result relevance based on users’ interactions beyond clicks. TMR is a fully automatic approach that collects necessary information on the client, processes it on the server side and trains corresponding relevance models based on machine learning techniques. Predictions made by these models can then be fed back into the ranking process of the search engine, which improves result quality and hence also usability. StreamMyRelevance! (SMR) [6] takes the concept of TMR one step further by providing a streaming-based version. That is, SMR collects and processes interaction data and trains relevance models in near real-time. Based on a user study and large-scale log analysis involving real-world search engines, we have evaluated the components of the Search Interaction Optimization toolkit as a whole—also to demonstrate the interplay of the different components. S.O.S., WaPPU and INUIT have been engaged in the evaluation and optimization of a real-world SERP interface. Results show that our tools are able to correctly identify even subtle differences in usability. Moreover, optimizations proposed by S.O.S. significantly improved the usability of the investigated and redesigned SERP. TMR and SMR have been evaluated in a GB-scale interaction log analysis as well using data from real-world search engines. Our findings indicate that they are able to yield predictions that are better than those of competing state-of-the-art systems considering clicks only. Also, a comparison of SMR to existing solutions shows its superiority in terms of efficiency, robustness and scalability. The thesis concludes with a discussion of the potential and limitations of the above contributions and provides an overview of potential future work. / Im Laufe der vergangenen 25 Jahre haben sich Suchmaschinen zu einem der wichtigsten, wenn nicht gar dem wichtigsten Zugangspunkt zum World Wide Web (WWW) entwickelt. Diese Entwicklung resultiert vor allem aus der kontinuierlich steigenden Zahl an Dokumenten, welche im WWW verfügbar, jedoch sehr unstrukturiert organisiert sind. Überdies werden Suchergebnisse immer häufiger in Kategorien klassifiziert und in Form semantischer Informationen bereitgestellt, die direkt in der Suchmaschine konsumiert werden können. Dies spiegelt einen allgemeinen Trend wider. Durch die wachsende Zahl an Dokumenten und technologischen Neuerungen wandeln sich die Bedürfnisse von sowohl Nutzern als auch Suchmaschinen ständig. Nutzer wollen mit immer besseren Suchergebnissen und Interfaces versorgt werden, während Suchmaschinen-Unternehmen Werbung platzieren und Gewinn machen müssen, um ihre Dienste kostenlos anbieten zu können. Damit geht die Notwendigkeit einher, in hohem Maße benutzbare und optimierte Suchergebnisseiten – sogenannte SERPs (search engine results pages) – für Nutzer bereitzustellen. Gängige Methoden zur Evaluierung und Optimierung von Usability sind jedoch größtenteils kostspielig oder zeitaufwändig und basieren meist auf explizitem Feedback. Sie sind somit entweder nicht effizient oder nicht effektiv, weshalb Optimierungen an Suchmaschinen-Schnittstellen häufig primär aus dem Unternehmensblickwinkel heraus durchgeführt werden. Des Weiteren sind bestehende Methoden zur Vorhersage der Relevanz von Suchergebnissen, welche größtenteils auf der Auswertung von Klicks basieren, nicht auf neuartige SERPs zugeschnitten. Zum Beispiel versagen diese, wenn Suchanfragen direkt auf der Suchergebnisseite beantwortet werden und der Nutzer nicht klicken muss. Basierend auf den Prinzipien des nutzerzentrierten Designs entwickeln wir eine Lösung in Form eines ganzheitlichen Ansatzes für die oben beschriebenen Probleme. Dieser Ansatz orientiert sich sowohl an Nutzern als auch an Entwicklern. Unsere Lösung stellt automatische Methoden bereit, um unternehmenszentriertem Design entgegenzuwirken und implizites Nutzerfeedback für die effizienteund effektive Evaluierung und Optimierung von Usability und insbesondere Ergebnisrelevanz nutzen zu können. Wir definieren Personas und Szenarien, aus denen wir ungelöste Probleme und konkrete Anforderungen ableiten. Basierend auf diesen Anforderungen entwickeln wir einen entsprechenden Werkzeugkasten, das Search Interaction Optimization Toolkit. Mittels eines Bottom-up-Ansatzes definieren wir zudem eine gleichnamige Methodik auf einem höheren Abstraktionsniveau. Das Search Interaction Optimization Toolkit besteht aus insgesamt sechs Komponenten. Zunächst präsentieren wir INUIT [1], ein neuartiges, minimales Instrument zur Bestimmung von Usability, welches speziell auf sinnvolle Korrelationen mit implizitem Nutzerfeedback in Form Client-seitiger Interaktionen abzielt. Aus diesem Grund dient es als Basis für die direkte Herleitung quantitativer Usability-Bewertungen aus dem Verhalten von Nutzern. Das Instrument wurde basierend auf Untersuchungen etablierter Usability-Standards und -Richtlinien sowie Experteninterviews entworfen. Die Machbarkeit und Effektivität der Benutzung von INUIT wurden in einer Nutzerstudie untersucht und darüber hinaus durch eine konfirmatorische Faktorenanalyse bestätigt. Im Anschluss beschreiben wir WaPPU [2], welches ein kontextsensitives, auf INUIT basierendes Tool zur Durchführung von A/B-Tests ist. Es implementiert das neuartige Konzept des Usability-based Split Testing und ermöglicht die automatische Evaluierung der Usability beliebiger SERPs basierend auf den bereits zuvor angesprochenen quantitativen Bewertungen, welche direkt aus Nutzerinteraktionen abgeleitet werden. Hierzu werden Techniken des maschinellen Lernens angewendet, um automatisch entsprechende Usability-Modelle generieren und anwenden zu können. WaPPU ist insbesondere nicht auf die Evaluierung von Suchergebnisseiten beschränkt, sondern kann auf jede beliebige Web-Schnittstelle in Form einer Webseite angewendet werden. Darauf aufbauend beschreiben wir S.O.S., die SERP Optimization Suite [3], welche das Tool WaPPU sowie einen neuartigen Katalog von „Best Practices“ [4] umfasst. Sobald eine durch WaPPU gemessene, suboptimale Usability-Bewertung festgestellt wird, werden – basierend auf dem Katalog von „Best Practices“ – automatisch entsprechende Gegenmaßnahmen und Optimierungen für die untersuchte Suchergebnisseite vorgeschlagen. Der Katalog wurde in einem dreistufigen Prozess erarbeitet, welcher die Untersuchung bestehender Suchergebnisseiten sowie eine Anpassung und Verifikation durch 20 Usability-Experten beinhaltete. Die bisher angesprochenen Tools fokussieren auf die generelle Usability von SERPs, jedoch ist insbesondere die Darstellung der für den Nutzer relevantesten Ergebnisse eminent wichtig für eine Suchmaschine. Da Relevanz eine Untermenge von Usability ist, beinhaltet unser Werkzeugkasten daher das Tool TellMyRelevance! (TMR) [5], die erste End-to-End-Lösung zur Vorhersage von Suchergebnisrelevanz basierend auf Client-seitigen Nutzerinteraktionen. TMR ist einvollautomatischer Ansatz, welcher die benötigten Daten auf dem Client abgreift, sie auf dem Server verarbeitet und entsprechende Relevanzmodelle bereitstellt. Die von diesen Modellen getroffenen Vorhersagen können wiederum in den Ranking-Prozess der Suchmaschine eingepflegt werden, was schlussendlich zu einer Verbesserung der Usability führt. StreamMyRelevance! (SMR) [6] erweitert das Konzept von TMR, indem es einen Streaming-basierten Ansatz bereitstellt. Hierbei geschieht die Sammlung und Verarbeitung der Daten sowie die Bereitstellung der Relevanzmodelle in Nahe-Echtzeit. Basierend auf umfangreichen Nutzerstudien mit echten Suchmaschinen haben wir den entwickelten Werkzeugkasten als Ganzes evaluiert, auch, um das Zusammenspiel der einzelnen Komponenten zu demonstrieren. S.O.S., WaPPU und INUIT wurden zur Evaluierung und Optimierung einer realen Suchergebnisseite herangezogen. Die Ergebnisse zeigen, dass unsere Tools in der Lage sind, auch kleine Abweichungen in der Usability korrekt zu identifizieren. Zudem haben die von S.O.S.vorgeschlagenen Optimierungen zu einer signifikanten Verbesserung der Usability der untersuchten und überarbeiteten Suchergebnisseite geführt. TMR und SMR wurden mit Datenmengen im zweistelligen Gigabyte-Bereich evaluiert, welche von zwei realen Hotelbuchungsportalen stammen. Beide zeigen das Potential, bessere Vorhersagen zu liefern als konkurrierende Systeme, welche lediglich Klicks auf Ergebnissen betrachten. SMR zeigt gegenüber allen anderen untersuchten Systemen zudem deutliche Vorteile bei Effizienz, Robustheit und Skalierbarkeit. Die Dissertation schließt mit einer Diskussion des Potentials und der Limitierungen der erarbeiteten Forschungsbeiträge und gibt einen Überblick über potentielle weiterführende und zukünftige Forschungsarbeiten.

Page generated in 0.4639 seconds