• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 9
  • 4
  • Tagged with
  • 28
  • 26
  • 17
  • 12
  • 12
  • 12
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Untersuchungen zwischen Belastungen und Belastbarkeiten beim Herstellen tongebundener Formen: Untersuchungen zwischen Belastungen und Belastbarkeiten beim Herstellen tongebundener Formen

Abdullah, Eva 30 June 2014 (has links)
Im Rahmen der vorliegenden Arbeit wurde versucht, Gesetzmäßigkeiten zwischen Kenngrößen aus dem Formstofflabor und einer praxisnahen kleintechnischen Formanlage abzuleiten. Der Zweck besteht darin, einen Fehler bei der Formherstellung (insbesondere Ballenabrisse) zu vermeiden. Dazu wurden zahlreiche Untersuchungen sowohl im Formstofflabor als auch an der Versuchsanlage vorgenommen. Dies gleicht in ihrer Funktionsweise betrieblichen Formanlagen mit unterschiedlichen Verdichtungsmöglichkeiten. Bei den Untersuchungen wurden Formstoffzusammensetzungen variiert, konstruktive Änderungen an der Formmaschine vorgenommen und die Formballen mit unterschiedlichen Formschrägen versehen. Zur Beurteilung der Gebrauchstauglichkeit einer Grünsandform müssen die Beanspruchbarkeiten größer als die entstehenden Beanspruchungen oder zumindest gleich sein. Dazu wurde eine neue Methode zur Bestimmung der Ballenabrissneigung unter Einsatz eines variablen Gießereimodells entwickelt. Durch eine zielgerichtete Kombination der an der Formherstellung beteiligten Komponenten: Formstoff, Formmaschine und Formprozess ließen sich qualitätsgerechte Formen herstellen und die Ergebnisse erfolgreich auf die betriebliche Praxis übertragen.:Inhaltsverzeichnis 1. Einleitung 5 2. Wissenschaftlich-technische Problem- und Zielstellung 7 2.1 Problemstellung 7 2.2 Zielstellung 11 3. Literaturrecherche zum Stand der Technik 13 3.1 Formstoffmischungen und Formherstellung 13 3.1.1 Bestandteile der Formstoffmischungen 13 3.1.2 Mischen des Formstoffs 15 3.1.3 Eigenschaften tongebundener Formstoffe 15 3.1.3.1 Verdichtbarkeit 15 3.1.3.2 Prüfungen mit Probekörpern 16 3.1.3.2.1 Gasdurchlässigkeit 16 3.1.3.2.2 Grünfestigkeitseigenschaften 17 3.1.4 Formherstellungsverfahren mit tongebundenen Formstoffen 17 3.2 Formmaschinen und ihre Verdichtungsmöglichkeiten 19 3.3 Herstellung von Formen mit Ballen: 22 3.3.1 Ballenabrisse (Formenbruch) 23 3.3.1.1 Entstehung 24 3.3.1.2 Mögliche Ursachen 27 3.3.1.3 Vermeidung 27 3.4 Fließverhalten und Haftkräfte 28 3.4.1 Fließen des Formstoffs im Ballen 32 3.4.2 Technologische Fließbarkeitsmessmethoden 34 3.5 Qualitätskontrolle der Form 34 3.5.1 Dichte der Form 35 3.5.2 Messung der Formdichte 36 3.6 Analyse des Standes der Technik 37 4 Schaffung konstruktiver Voraussetzungen 39 4.1 Apparative Voraussetzungen im Labor 39 4.1.1 Bestimmung der Verdichtbarkeit: 39 4.1.2 Ermittlung der Adhäsionskräfte 40 4.2 Versuchsdurchführung und konstruktive Voraussetzungen an der kleintechnischen Anlage 42 4.3 Konstruktive Veränderungen der Formmaschinenbauteile 45 4.3.1 Dosiereinrichtung mit einflügeligen Klappen 45 4.3.2 Druckteller mit Verstrebungen und Modellplattenträger mit Verrippungen 47 4.3.3 Vielstempelpresse 49 4.4 Entwicklung einer Methodik zur Trennkraftmessung 52 4.5 Vervollkommnung und Anpassung des mathematischen Modells zur Berechnung der Ballenabrissneigung beim Form-Modell-Trennen 53 5. Versuchsbeschreibung 56 5.1 Laboruntersuchungen 56 5.1.1 Formstoffaufbereitung: 56 5.1.2 Bestimmung der Festigkeitseigenschaften 57 5.1.3 Eigenschaften der eingesetzten Formstoffe 59 5.1.3.1 Zugfestigkeits- und Adhäsionskraftmessungen im Labor 61 5.1.3.2 Ermittlung der Dichte 64 5.1.3.3 Ermittlung der Zugfestigkeit (Kohäsion) 65 5.2 Untersuchungen mit der Multi-Compact-Formanlage 67 5.2.1 Formstoffaufbereitung und Verdichtbarkeitsbestimmung 67 5.2.2 Festigkeitsbestimmung 68 5.2.3 Dichtebestimmung 69 5.2.4 Konsequenzen 73 5.2.5 Versuche mit ebener Pressplatte 75 5.2.5.1 Seitendruckmessung 77 5.2.5.2 Problemlösungen 80 5.2.6 Seitendruckmessung und Vergleich mit ebener Pressplatte 82 5.2.7 Impulspressen 83 5.2.8 Messung der Trennkräfte 86 5.2.9 Einfluss der geometrischen Bedingungen auf die Trennkräfte und die Entstehung vom Ballenabrissen 90 5.2.9.1 Modellbeispiel Zylinder Höhe 50 mm und Durchmesser 50 mm 92 5.2.9.2 Messung der Adhäsionskräfte des Ballens in der Modelleinrichtung 93 5.2.9.3 Effektivdruckmessungen 97 5.3 Gebrauchsfähigkeitstest des geformten Ballens 98 6. Zusammenfassung 100 7. Literaturverzeichnis 102
22

Zur physikalisch nichtlinearen Analyse von Verbund-Stabtragwerken unter quasi-statischer Langzeitbeanspruchung

Hannawald, Frank 30 March 2006 (has links)
Software for designing structural frameworks in civil engineering is getting more and more complex. By offering reliable and efficient calculation methods, economic goals can be reached as well as the civil engineer's demands. Furthermore, opportunities for special developments are created and acceptance of new building systems is increased. The work presented here introduces a method for the physically nonlinear analysis of different composite beam designs for building and bridge structures which are subjected mainly to bending stresses under quasi-static, long-term loading. In addition, the utilization of these methods, including materials and modelling concepts, are shown in a newly developed software package. Present developments for composite construction and civil engineering requirements are the basis for the materials and modelling possibilities discussed. Particular attention is given to a realistic description of time and load dependent variables characterizing the state of the composite structures and their interactions. The selection of material models is based on experimental results. The main points of interest are concrete properties like creep, shrinkage, effluent hydration heat, cracking and boundary behaviour between different materials. Material behaviour under load and reload conditions was taken into account as well. The static solution is based on the incremental iterative application of the deformation method. Each iteration starts with the numerical integration of the beam system of differential equations. Based on the effects at the beam boundaries, the consideration of load and system modifications, as well as time dependent and independent constraint processes, is shown. An essential extension of the composite beam structure model is obtained using the system of differential equations for the flexible bond. Several detailed models are linked to a time dependent simulation for the entire system, which has been incorporated into a software package visualizing the time dependent variables. Finally, some practical application examples are presented. The validation of the implemented approach is demonstrated by correlating the calculated results with real life measurements. / Softwareentwicklungen für die Tragwerksplanung im Bauwesen werden zunehmend komplexer. Mit der Bereitstellung zuverlässiger und effizienter Berechnungsmethoden, welche sowohl ingenieurgemäße Ansprüche als auch wirtschaftliche Zielsetzungen erfüllen, werden neue Möglichkeiten für eine zielgerichtete Entwicklung oder verstärkte Etablierung von neueren Bauweisen geschaffen. Die vorliegende Arbeit beschreibt ein Verfahren zur physikalisch nichtlinearen Analyse vorwiegend biegebeanspruchter Verbund-Stabtragwerke des Hoch- und Brückenbaues unter quasi-statischer Langzeitbeanspruchung. Die zugehörige programmtechnische Umsetzung wird veranschaulicht. Die Modellierungsmöglichkeiten bezüglich der Werkstoffe orientieren sich an baupraktisch relevanten Erfordernissen sowie an den Besonderheiten und aktuellen Entwicklungen der Verbundbauweise. Besonderes Augenmerk wird zunächst auf eine realitätsnahe Darstellung der den Gebrauchs¬zustand von Verbundtragwerken charakterisierenden zeit- und lastabhängigen Einflussgrößen sowie ihrer Wechselwirkungen gelegt. Zur objektiven Beurteilung möglicher Materialmodelle wird zuerst auf das prinzipielle Verhalten im Experiment eingegangen, danach erfolgt eine Auswahl geeigneter Modelle. Schwerpunkte stellen dabei insbesondere die Betoneigenschaften Kriechen, Schwinden, abfließende Hydratationswärme und die Rissbildung sowie das Verbundverhalten zwischen den Werkstoffen dar. Diese Betrachtungen schließen das Werk¬stoffverhalten unter Be- und Entlastung ein. Die statische Lösung basiert auf einer inkrementell-iterativen Anwendung der Deformations¬methode. Ausgangspunkt der Berechnungen in einem Iterationsschritt ist die numerische Integration des Stab-Differentialgleichungssystems. Ausgehend von der Formulierung der Wirkungsgrößen an einem Stabrändern wird die Berücksichtigung von Belastungs- und Systemmodifikationen sowie zeitabhängigen und -unabhängigen Zwangsprozessen aufgezeigt. Eine wesentliche Erweiterung der Anwendungen im Stahl-Beton-Verbundbau stellt die Herleitung des Stab-Differentialgleichungssystems für den nachgiebigen Verbund dar. Mit der Verknüpfung einzelner Detailmodelle zu einem zeitabhängigen Lösungsverfahren und deren Integration in einen entsprechenden Softwareentwurf wird die programmtechnische Basis für eine modellhafte, zeitvariante Erfassung der beschreibenden Kenngrößen bereitgestellt. Ausgewählte praktische Beispiele demonstrieren abschließend die Anwendungsmöglichkeiten des Verfahrens und stellen die Verifikation der Simulationsergebnisse anhand von Messungen dar.
23

Möglichkeiten und Grenzen der Berechnung von Rissbreiten in veränderlichen Verbundsituationen

Eckfeldt, Lars 20 July 2005 (has links)
Die vorliegende Arbeit reflektiert die aktuelle Diskussion von Modellen zur Vorhersage von Rissbreiten und versucht, objektive Vergleichskriterien aufzustellen sowie Folgerungen für mögliche Lösungswege zu ziehen. Am Beginn steht eine ausführliche Auseinandersetzung mit dem Verbundmechanismus zwischen Betonstahl und Beton und den Möglichkeiten der Verbundanalyse. Ausgehend von eigenen Versuchen an kurzen Verbundlängen zur Untersuchung des Verbundverhaltens von Bewehrung in hochfesten Betonen wird in der Arbeit nach Möglichkeiten zur Vorhersage von Gleit- und Sprengbrüchen gesucht. Für Sprengbrüche, also Längsrissbildung, ist ein verbesserter Versuchsaufbau entwickelt worden, der Rückschlüsse auf die Verformungsentwicklung in der potentiellen Sprengbruchfläche und den Aufbau eines Verbundwiderstands unter Belastung ermöglicht. Es stellte sich trotz der Fortschritte in der Versagensanalyse dieser Versuche heraus, dass es wenig sinnvoll ist, die gewonnenen Verbundgesetze direkt auf lange Verbundlängen zur Ermittlung von Rissbreiten anzuwenden. Zur Simulation der mit Bauteilsituationen vergleichbaren langen Verbundlängen wird dagegen eine Hypothese über den Widerstand einer potentiellen Längsbruchfläche verwendet. Dabei wird die mögliche Reaktion von gekoppelten und voneinander abhängigen Betonzugringen um einen Betonstahl, vom Lasteintrag beginnend, sukzessive fortschreitend aufgebaut. Die Aufteilung der Zugringe folgt dabei einer Annahme über die Entwicklung von lokalen Verbundrissen nach Goto. Damit ist die Zugringtheorie von Tepfers auf lange Verbundlängen übertragbar und Simulationen von Zugstäben nahe an Tepfers theoretischen Ansätzen werden so ermöglicht. Die Rechnersimulationen an langen Verbundlängen im Vergleich zur Prognose nach MC 90 wurden für Einzelrissbildung und abgeschlossene Rissbildung an zylindrischen Dehnkörpergeometrien durchgeführt. Zur Verifizierung der zeitabhängigen Einflüsse wie Zwängungen aus Schwinden und Zugkriechen sind einfache Ansätze entwickelt worden. Am Ende dieser Analysen steht eine Neubewertung normativer Ansätze (MC 90/DIN 1045-1 sowie EN 1992-1-1) zur Berechnung einer charakteristischen Rissbreite. Eine Schlüsselstellung nimmt die richtige Prognose des wirksamen Rissabstands in allen Berechnungsmodellen ein. Anhand eines neu zusammengestellten Datensatzes und vorhandener Vergleichsdatensätze wurde die Performance der Modelle untersucht. Anwendungsbereiche, die problematisch erscheinen, konnten eingegrenzt werden. Es war zu folgern, dass die Ansätze für den effektiven Bewehrungsgrad und die Verbundspannung zu verbessern sind. Die daraufhin mit einem additiven Sicherheitselement und einem variablen Mindestwert entwickelte Modellalternative gegenüber den normativen Vorschlägen ist nun zielgerichteter und kann dabei eine effektivere und zuverlässigere Prognose der Rissbreite und damit der konstruktiven Bewehrungslösung liefern. Die Anforderungen an die Performance eines Rechenwertes der Rissbreite wk sind um ein Effektivitätskriterium für den Rissabstand srk ergänzt worden, dessen Vorhersagequalität entscheidend für effiziente und zuverlässige Vorhersagen der Rissbreite ist. Die Zuverlässigkeit des DIN-Ansatzes für Mindestbewehrung im Grenzzustand der Gebrauchstauglichkeit ist ebenfalls geprüft worden. Umfangreiche Zusammenstellungen, Beispiele und Parameterstudien sind im Anhang der Arbeit hinzugefügt, um die theoretischen Ergebnisse zu stützen und Lesern Vergleichsmöglichkeiten zu bieten. Dazu gehören auch zwei Ablaufpläne und Hilfsmittel für einfache Absicherungen, die die zu erwartenden Schwierigkeiten bei der Verwendung des normativen DIN 1045-1 Ansatzes zur Beschränkung auf kleine Rissbreiten ausgleichen können. / The doctoral thesis reflects the recent discussion on the finding of suitable verification models for crack width control. It tries to assemble criteria for the comparison in order to draw conclusions from the outcome. In the very beginning stands a widespread analysis of the bond mechanisms between the reinforcing steel and the concrete. Starting from own testing on short embedment lengths in HPC, opportunities are researched for the prediction of a sliding or splitting failure of the surrounding concrete during bar pull-out. An improved test setup is developed by the Author to verify the splitting failure mechanism that finally leads to longitudinal cover cracking. It enables to obtain better indications for the inner strain development in the later failure plane, showing the development of the bond resistance during loading. Although progress were made in the quality of analysis, it turned out that, a direct implementation of obtained bond laws is less successful to take care of the apparent problem of long embedment lengths. The description of that problem is essential within the crack width verification. Differently, a method is suggested to simulate a probable longitudinal splitting plane and its potential to resist an applied longitudinal load. In that method, the possible reaction of interlinked concrete tension rings around a steel bar is thought to form a growing global resistance with every added resistance ring in a sequential chain that are decreasingly loaded if the distance to the load application increases. The segmentation follows an approximation of the possibly development of local bond cracks acc. to Goto. In this, the application of the tension ring theory from Tepfers were successfully overtaken to the problem of long embedment lengths. It enables for simulations close to the original theory of tensile rings formed by concrete around the reinforcing steel. Comparing the results with MC 90, the simulation of long embedment lengths were performed using imaginary cylindrical test-specimen, enabling the verification of single and stabilized cracking. Simplified methods were developed in order to implement time-dependent influences like restraint from creep and shrinkage.An extensive evaluation of the normative methods (MC 90/ DIN 1045-1 and EN 1992-1-1) for verifications of a characteristic crack width stands at the end of the studies. A key position within the models is held by the realistic prognosis of the accountable crack distance. Using a newly compiled dataset and already existing data for comparison, the performances of current models were verified for predicting crack widths or distances. Complicated fields of its application could be marked and isolated. It was concluded that, the approaches for the determination of the effective reinforcement ratio and the bond stress should be improved. The developed alternative for calculation is assembled with an added safety feature and a variable minimum for the crack distance. It can lead to a more reliable prognosis for crack distances and the depending crack widths in order to design a more efficient reinforcement detailing. The requirements on the performance of a determined characteristic crack width wk are extended by the application of a criteria of effectiveness for the calculated crack distance srk. The reliability of the MC 90 -approach and the DIN-approach for minimum reinforcement has also been checked. Extensive compilations of data, examples and parameter studies are added to the appendix in order to backup the theoretical results and to invite others to compare. Two calculation flow charts and helptools are integrated to ensure the quality of crack width calculations also in cases where smaller crack widths must be verified, using informative and normative methods in MC 90/ DIN 1045-1.
24

Search Interaction Optimization / Search Interaction Optimization : Ein nutzerzentrierter Design-Ansatz

Speicher, Maximilian 20 September 2016 (has links) (PDF)
Over the past 25 years, search engines have become one of the most important, if not the entry point of the World Wide Web. This development has been primarily due to the continuously increasing amount of available documents, which are highly unstructured. Moreover, the general trend is towards classifying search results into categories and presenting them in terms of semantic information that answer users' queries without having to leave the search engine. With the growing amount of documents and technological enhancements, the needs of users as well as search engines are continuously evolving. Users want to be presented with increasingly sophisticated results and interfaces while companies have to place advertisements and make revenue to be able to offer their services for free. To address the above needs, it is more and more important to provide highly usable and optimized search engine results pages (SERPs). Yet, existing approaches to usability evaluation are often costly or time-consuming and mostly rely on explicit feedback. They are either not efficient or not effective while SERP interfaces are commonly optimized primarily from a company's point of view. Moreover, existing approaches to predicting search result relevance, which are mostly based on clicks, are not tailored to the evolving kinds of SERPs. For instance, they fail if queries are answered directly on a SERP and no clicks need to happen. Applying Human-Centered Design principles, we propose a solution to the above in terms of a holistic approach that intends to satisfy both, searchers and developers. It provides novel means to counteract exclusively company-centric design and to make use of implicit user feedback for efficient and effective evaluation and optimization of usability and, in particular, relevance. We define personas and scenarios from which we infer unsolved problems and a set of well-defined requirements. Based on these requirements, we design and develop the Search Interaction Optimization toolkit. Using a bottom-up approach, we moreover define an eponymous, higher-level methodology. The Search Interaction Optimization toolkit comprises a total of six components. We start with INUIT [1], which is a novel minimal usability instrument specifically aiming at meaningful correlations with implicit user feedback in terms of client-side interactions. Hence, it serves as a basis for deriving usability scores directly from user behavior. INUIT has been designed based on reviews of established usability standards and guidelines as well as interviews with nine dedicated usability experts. Its feasibility and effectiveness have been investigated in a user study. Also, a confirmatory factor analysis shows that the instrument can reasonably well describe real-world perceptions of usability. Subsequently, we introduce WaPPU [2], which is a context-aware A/B testing tool based on INUIT. WaPPU implements the novel concept of Usability-based Split Testing and enables automatic usability evaluation of arbitrary SERP interfaces based on a quantitative score that is derived directly from user interactions. For this, usability models are automatically trained and applied based on machine learning techniques. In particular, the tool is not restricted to evaluating SERPs, but can be used with any web interface. Building on the above, we introduce S.O.S., the SERP Optimization Suite [3], which comprises WaPPU as well as a catalog of best practices [4]. Once it has been detected that an investigated SERP's usability is suboptimal based on scores delivered by WaPPU, corresponding optimizations are automatically proposed based on the catalog of best practices. This catalog has been compiled in a three-step process involving reviews of existing SERP interfaces and contributions by 20 dedicated usability experts. While the above focus on the general usability of SERPs, presenting the most relevant results is specifically important for search engines. Hence, our toolkit contains TellMyRelevance! (TMR) [5] — the first end-to-end pipeline for predicting search result relevance based on users’ interactions beyond clicks. TMR is a fully automatic approach that collects necessary information on the client, processes it on the server side and trains corresponding relevance models based on machine learning techniques. Predictions made by these models can then be fed back into the ranking process of the search engine, which improves result quality and hence also usability. StreamMyRelevance! (SMR) [6] takes the concept of TMR one step further by providing a streaming-based version. That is, SMR collects and processes interaction data and trains relevance models in near real-time. Based on a user study and large-scale log analysis involving real-world search engines, we have evaluated the components of the Search Interaction Optimization toolkit as a whole—also to demonstrate the interplay of the different components. S.O.S., WaPPU and INUIT have been engaged in the evaluation and optimization of a real-world SERP interface. Results show that our tools are able to correctly identify even subtle differences in usability. Moreover, optimizations proposed by S.O.S. significantly improved the usability of the investigated and redesigned SERP. TMR and SMR have been evaluated in a GB-scale interaction log analysis as well using data from real-world search engines. Our findings indicate that they are able to yield predictions that are better than those of competing state-of-the-art systems considering clicks only. Also, a comparison of SMR to existing solutions shows its superiority in terms of efficiency, robustness and scalability. The thesis concludes with a discussion of the potential and limitations of the above contributions and provides an overview of potential future work. / Im Laufe der vergangenen 25 Jahre haben sich Suchmaschinen zu einem der wichtigsten, wenn nicht gar dem wichtigsten Zugangspunkt zum World Wide Web (WWW) entwickelt. Diese Entwicklung resultiert vor allem aus der kontinuierlich steigenden Zahl an Dokumenten, welche im WWW verfügbar, jedoch sehr unstrukturiert organisiert sind. Überdies werden Suchergebnisse immer häufiger in Kategorien klassifiziert und in Form semantischer Informationen bereitgestellt, die direkt in der Suchmaschine konsumiert werden können. Dies spiegelt einen allgemeinen Trend wider. Durch die wachsende Zahl an Dokumenten und technologischen Neuerungen wandeln sich die Bedürfnisse von sowohl Nutzern als auch Suchmaschinen ständig. Nutzer wollen mit immer besseren Suchergebnissen und Interfaces versorgt werden, während Suchmaschinen-Unternehmen Werbung platzieren und Gewinn machen müssen, um ihre Dienste kostenlos anbieten zu können. Damit geht die Notwendigkeit einher, in hohem Maße benutzbare und optimierte Suchergebnisseiten – sogenannte SERPs (search engine results pages) – für Nutzer bereitzustellen. Gängige Methoden zur Evaluierung und Optimierung von Usability sind jedoch größtenteils kostspielig oder zeitaufwändig und basieren meist auf explizitem Feedback. Sie sind somit entweder nicht effizient oder nicht effektiv, weshalb Optimierungen an Suchmaschinen-Schnittstellen häufig primär aus dem Unternehmensblickwinkel heraus durchgeführt werden. Des Weiteren sind bestehende Methoden zur Vorhersage der Relevanz von Suchergebnissen, welche größtenteils auf der Auswertung von Klicks basieren, nicht auf neuartige SERPs zugeschnitten. Zum Beispiel versagen diese, wenn Suchanfragen direkt auf der Suchergebnisseite beantwortet werden und der Nutzer nicht klicken muss. Basierend auf den Prinzipien des nutzerzentrierten Designs entwickeln wir eine Lösung in Form eines ganzheitlichen Ansatzes für die oben beschriebenen Probleme. Dieser Ansatz orientiert sich sowohl an Nutzern als auch an Entwicklern. Unsere Lösung stellt automatische Methoden bereit, um unternehmenszentriertem Design entgegenzuwirken und implizites Nutzerfeedback für die effizienteund effektive Evaluierung und Optimierung von Usability und insbesondere Ergebnisrelevanz nutzen zu können. Wir definieren Personas und Szenarien, aus denen wir ungelöste Probleme und konkrete Anforderungen ableiten. Basierend auf diesen Anforderungen entwickeln wir einen entsprechenden Werkzeugkasten, das Search Interaction Optimization Toolkit. Mittels eines Bottom-up-Ansatzes definieren wir zudem eine gleichnamige Methodik auf einem höheren Abstraktionsniveau. Das Search Interaction Optimization Toolkit besteht aus insgesamt sechs Komponenten. Zunächst präsentieren wir INUIT [1], ein neuartiges, minimales Instrument zur Bestimmung von Usability, welches speziell auf sinnvolle Korrelationen mit implizitem Nutzerfeedback in Form Client-seitiger Interaktionen abzielt. Aus diesem Grund dient es als Basis für die direkte Herleitung quantitativer Usability-Bewertungen aus dem Verhalten von Nutzern. Das Instrument wurde basierend auf Untersuchungen etablierter Usability-Standards und -Richtlinien sowie Experteninterviews entworfen. Die Machbarkeit und Effektivität der Benutzung von INUIT wurden in einer Nutzerstudie untersucht und darüber hinaus durch eine konfirmatorische Faktorenanalyse bestätigt. Im Anschluss beschreiben wir WaPPU [2], welches ein kontextsensitives, auf INUIT basierendes Tool zur Durchführung von A/B-Tests ist. Es implementiert das neuartige Konzept des Usability-based Split Testing und ermöglicht die automatische Evaluierung der Usability beliebiger SERPs basierend auf den bereits zuvor angesprochenen quantitativen Bewertungen, welche direkt aus Nutzerinteraktionen abgeleitet werden. Hierzu werden Techniken des maschinellen Lernens angewendet, um automatisch entsprechende Usability-Modelle generieren und anwenden zu können. WaPPU ist insbesondere nicht auf die Evaluierung von Suchergebnisseiten beschränkt, sondern kann auf jede beliebige Web-Schnittstelle in Form einer Webseite angewendet werden. Darauf aufbauend beschreiben wir S.O.S., die SERP Optimization Suite [3], welche das Tool WaPPU sowie einen neuartigen Katalog von „Best Practices“ [4] umfasst. Sobald eine durch WaPPU gemessene, suboptimale Usability-Bewertung festgestellt wird, werden – basierend auf dem Katalog von „Best Practices“ – automatisch entsprechende Gegenmaßnahmen und Optimierungen für die untersuchte Suchergebnisseite vorgeschlagen. Der Katalog wurde in einem dreistufigen Prozess erarbeitet, welcher die Untersuchung bestehender Suchergebnisseiten sowie eine Anpassung und Verifikation durch 20 Usability-Experten beinhaltete. Die bisher angesprochenen Tools fokussieren auf die generelle Usability von SERPs, jedoch ist insbesondere die Darstellung der für den Nutzer relevantesten Ergebnisse eminent wichtig für eine Suchmaschine. Da Relevanz eine Untermenge von Usability ist, beinhaltet unser Werkzeugkasten daher das Tool TellMyRelevance! (TMR) [5], die erste End-to-End-Lösung zur Vorhersage von Suchergebnisrelevanz basierend auf Client-seitigen Nutzerinteraktionen. TMR ist einvollautomatischer Ansatz, welcher die benötigten Daten auf dem Client abgreift, sie auf dem Server verarbeitet und entsprechende Relevanzmodelle bereitstellt. Die von diesen Modellen getroffenen Vorhersagen können wiederum in den Ranking-Prozess der Suchmaschine eingepflegt werden, was schlussendlich zu einer Verbesserung der Usability führt. StreamMyRelevance! (SMR) [6] erweitert das Konzept von TMR, indem es einen Streaming-basierten Ansatz bereitstellt. Hierbei geschieht die Sammlung und Verarbeitung der Daten sowie die Bereitstellung der Relevanzmodelle in Nahe-Echtzeit. Basierend auf umfangreichen Nutzerstudien mit echten Suchmaschinen haben wir den entwickelten Werkzeugkasten als Ganzes evaluiert, auch, um das Zusammenspiel der einzelnen Komponenten zu demonstrieren. S.O.S., WaPPU und INUIT wurden zur Evaluierung und Optimierung einer realen Suchergebnisseite herangezogen. Die Ergebnisse zeigen, dass unsere Tools in der Lage sind, auch kleine Abweichungen in der Usability korrekt zu identifizieren. Zudem haben die von S.O.S.vorgeschlagenen Optimierungen zu einer signifikanten Verbesserung der Usability der untersuchten und überarbeiteten Suchergebnisseite geführt. TMR und SMR wurden mit Datenmengen im zweistelligen Gigabyte-Bereich evaluiert, welche von zwei realen Hotelbuchungsportalen stammen. Beide zeigen das Potential, bessere Vorhersagen zu liefern als konkurrierende Systeme, welche lediglich Klicks auf Ergebnissen betrachten. SMR zeigt gegenüber allen anderen untersuchten Systemen zudem deutliche Vorteile bei Effizienz, Robustheit und Skalierbarkeit. Die Dissertation schließt mit einer Diskussion des Potentials und der Limitierungen der erarbeiteten Forschungsbeiträge und gibt einen Überblick über potentielle weiterführende und zukünftige Forschungsarbeiten.
25

Nutzen und Grenzen von 3D-Anzeigen in Fahrzeugen

Krüger, Karen 04 June 2008 (has links)
In dieser Arbeit wurden nutzbringende Anwendungsmöglichkeiten für monoskopische und (auto)stereoskopische 3D-Anzeigen in Fahrzeugen theoretisch hergeleitet und empirisch überprüft. Zur Ableitung der Hypothesen wurde für jede Teilaufgabe anhand eines Fragenkatalogs zu den Vor- und Nachteilen von 3D-Anzeigen untersucht, inwieweit deren Bearbeitung davon profitiert, dass Informationen räumlich abgebildet werden. Die erwiesenen 3D-Vorteile wurden zu fünf Kategorien zusammengefasst: Integration, räumliche Kompatibilität, Aufmerksamkeitslenkung, Bildhaftigkeit und Attraktivität. Da der wesentliche 3D-Vorteil für Anzeigen in Fahrzeugen in einer räumlich kompatiblen Informationsdarstellung aus der Fahrerperspektive gesehen wurde, lag der Schwerpunkt der empirischen Arbeit auf 3D-Anzeigen für Fahrerassistenzsysteme (FAS). Am Beispiel einer 3D-Anzeige des Abstandsregeltempomaten (ART) wurde nachgewiesen, dass die Vorteile von 3D-Anzeigen für FAS in einer Erhöhung der Attraktivität und Akzeptanz sowie in einer Verbesserung des unmittelbaren Verständnisses im Vergleich zu 2D-Anzeigen liegen. Gleichzeitig wurden mit optimal gestalteten 3D-Anzeigen keine Nachteile in der Wahrnehmungssicherheit und Ablenkungswirkung festgestellt. Anhand der Literaturanalyse und der empirischen Ergebnisse wurden Gestaltungshinweise für 3D-Anzeigen in Fahrzeugen formuliert. Der erwartete 3D-Vorteil einer kompatiblen Darstellung stellte sich bei einer konstanten Anordnung der Informationen nicht ein, bleibt aber für Aufgaben mit einem kontinuierlichen Abgleich (z.B. Navigation) zu überprüfen. Die stereoskopische Darbietung erbrachte keinen besonderen Nutzen. Das fahrzeugtaugliche ASD erhöhte sogar die Reaktionszeiten. Insgesamt sprechen die Ergebnisse für eine gezielte Verwendung bildhafter monoskopischer 3D-Anzeigen für FAS und ausgewählte räumliche Funktionen, welche sich anhand von Begriffen und abstrakten Symbolen nur schwer erläutern lassen. / This thesis consists of the theoretical deduction and empirical evaluation of useful applications for monoscopic and (auto)stereoscopic 3D-displays in vehicles. For deducting hypotheses concerning the benefits and limits of 3D-displays, each subtask was tested for its potential benefits from a 3D-information presentation using a catalogue of confirmed advantages and disadvantages of 3D-displays. The proven 3D-advantages were summarized in five categories: integration, spatial compatibility, direction of attention, concreteness and attractiveness. Because it was presumed, that 3D-displays in vehicles are especially favorable for representing information about the vehicle surrounding in a 3D-perspective compatible to the drivers view, the empirical part was mainly focused on the application of 3D-displays for driver assistance systems. Using a 3D-display for adaptive cruise control (ACC), a general increase of attractiveness, acceptance and immediate comprehension for 3D-displays in comparison to conventional 2D-displays was confirmed. Simultaneously, well designed 3D-displays did not compromise perceptional safety and driver distraction. Design guidelines for 3D-displays in vehicles were concluded from the evaluation results and from literature analysis. Even though the expected 3D-benefit of spatially compatible information displays from the driver’s perspective was not confirmed for driver assistance systems like ACC with a constant layout of information, it still remains to be tested for continuous matching tasks like navigational checking in cars. The stereoscopic presentation of 3D-displays did not show advantages. On the contrary, an in-vehicle ASD even increased reaction times. In summery, the results suggest a distinctive application of well designed concrete and monoscopic 3D-displays for driver assistance systems and selected spatial functions which are difficult to explain using abstract notions or symbols.
26

Ergonomische Produktgestaltung am Beispiel mobiler Geräte im interkulturellen Vergleich: China – Deutschland – USA

Leiber, Paul 26 November 2010 (has links) (PDF)
Nicht zuletzt durch die Globalisierung kommen mittlerweile viele Geräte in vielen unterschiedlichen Kulturen zugleich zum Einsatz. Durch die Anpassung von Produkten an kulturelle Unterschiede kann die Gebrauchstauglichkeit dieser Produkte in der jeweiligen Kultur verbessert werden. Dies führt aufgrund einer höheren Kundenzufriedenheit und Sicherheit bei der Bedienung zu Vorteilen für die Nutzer der Produkte, in Folge dann auch zu höheren Umsätzen für die Hersteller der Produkte. Die vorliegende Arbeit zeigt am Beispiel der Nutzung mobiler Geräte Erkenntnisse für die Anpassung von Mensch-Maschine-Schnittstellen an die Anforderungen von Nutzern in China, Deutschland und den USA auf. Sie verwendet eine Kombination von quantitativen und qualitativen Forschungsmethoden. Zunächst wird ein Überblick über den theoretischen Wissensstand in den relevanten Bereichen erarbeitet, bevor Interviews mit neun deutschen Experten der Produktentwicklung mit internationaler Erfahrung einen Überblick über die Praxis der Produktentwicklung in international tätigen Konzernen geben. Auf der Basis dieser theoretischen und praktischen Erkenntnisse wird eine Online-Befragung zurNutzung mobiler Geräte im Fahrzeug mit insgesamt 269 chinesischen, deutschen und US-amerikanischen Teilnehmern beschrieben. Eine Card-Sorting-Studie mit 46 internationalen Probanden sowie eine Fahrsimulatorstudie mit 33 deutschen Probanden untersucht anschließend spezifische kulturelle Unterschiede bei der Kategorisierung. Eine weitere Fahrsimulatorstudie mit 42 chinesischen und deutschen Probanden analysiert kulturelle Präferenzen für Eingabemöglichkeiten. Die im Rahmen dieser Arbeit zusammengestellten Erkenntnisse münden in konkreten Gestaltungsregeln. Aus den Erkenntnissen ergeben sich neue Fragestellungen für die zukünftige Forschung.
27

Ergonomische Produktgestaltung am Beispiel mobiler Geräte im interkulturellen Vergleich: China – Deutschland – USA

Leiber, Paul 01 November 2010 (has links)
Nicht zuletzt durch die Globalisierung kommen mittlerweile viele Geräte in vielen unterschiedlichen Kulturen zugleich zum Einsatz. Durch die Anpassung von Produkten an kulturelle Unterschiede kann die Gebrauchstauglichkeit dieser Produkte in der jeweiligen Kultur verbessert werden. Dies führt aufgrund einer höheren Kundenzufriedenheit und Sicherheit bei der Bedienung zu Vorteilen für die Nutzer der Produkte, in Folge dann auch zu höheren Umsätzen für die Hersteller der Produkte. Die vorliegende Arbeit zeigt am Beispiel der Nutzung mobiler Geräte Erkenntnisse für die Anpassung von Mensch-Maschine-Schnittstellen an die Anforderungen von Nutzern in China, Deutschland und den USA auf. Sie verwendet eine Kombination von quantitativen und qualitativen Forschungsmethoden. Zunächst wird ein Überblick über den theoretischen Wissensstand in den relevanten Bereichen erarbeitet, bevor Interviews mit neun deutschen Experten der Produktentwicklung mit internationaler Erfahrung einen Überblick über die Praxis der Produktentwicklung in international tätigen Konzernen geben. Auf der Basis dieser theoretischen und praktischen Erkenntnisse wird eine Online-Befragung zurNutzung mobiler Geräte im Fahrzeug mit insgesamt 269 chinesischen, deutschen und US-amerikanischen Teilnehmern beschrieben. Eine Card-Sorting-Studie mit 46 internationalen Probanden sowie eine Fahrsimulatorstudie mit 33 deutschen Probanden untersucht anschließend spezifische kulturelle Unterschiede bei der Kategorisierung. Eine weitere Fahrsimulatorstudie mit 42 chinesischen und deutschen Probanden analysiert kulturelle Präferenzen für Eingabemöglichkeiten. Die im Rahmen dieser Arbeit zusammengestellten Erkenntnisse münden in konkreten Gestaltungsregeln. Aus den Erkenntnissen ergeben sich neue Fragestellungen für die zukünftige Forschung.:1. Einleitung 2. Stand der Forschung 3. Interviews mit deutschen Experten 4. Online-Befragung unter Chinesen, Deutschen und US-Amerikanern 5. Card-Sorting-Studie mit westlichen und östlichen Probanden 6. Fahrsimulatorstudie zu Menüstrukturen mit Deutschen 7. Fahrsimulatorstudie zu Eingabemöglichkeiten mit Chinesen und Deutschen 8. Zusammenfassung und Ausblick 9. Gestaltungsregeln für interkulturell genutzte Produkte
28

Search Interaction Optimization: A Human-Centered Design Approach

Speicher, Maximilian 20 September 2016 (has links)
Over the past 25 years, search engines have become one of the most important, if not the entry point of the World Wide Web. This development has been primarily due to the continuously increasing amount of available documents, which are highly unstructured. Moreover, the general trend is towards classifying search results into categories and presenting them in terms of semantic information that answer users' queries without having to leave the search engine. With the growing amount of documents and technological enhancements, the needs of users as well as search engines are continuously evolving. Users want to be presented with increasingly sophisticated results and interfaces while companies have to place advertisements and make revenue to be able to offer their services for free. To address the above needs, it is more and more important to provide highly usable and optimized search engine results pages (SERPs). Yet, existing approaches to usability evaluation are often costly or time-consuming and mostly rely on explicit feedback. They are either not efficient or not effective while SERP interfaces are commonly optimized primarily from a company's point of view. Moreover, existing approaches to predicting search result relevance, which are mostly based on clicks, are not tailored to the evolving kinds of SERPs. For instance, they fail if queries are answered directly on a SERP and no clicks need to happen. Applying Human-Centered Design principles, we propose a solution to the above in terms of a holistic approach that intends to satisfy both, searchers and developers. It provides novel means to counteract exclusively company-centric design and to make use of implicit user feedback for efficient and effective evaluation and optimization of usability and, in particular, relevance. We define personas and scenarios from which we infer unsolved problems and a set of well-defined requirements. Based on these requirements, we design and develop the Search Interaction Optimization toolkit. Using a bottom-up approach, we moreover define an eponymous, higher-level methodology. The Search Interaction Optimization toolkit comprises a total of six components. We start with INUIT [1], which is a novel minimal usability instrument specifically aiming at meaningful correlations with implicit user feedback in terms of client-side interactions. Hence, it serves as a basis for deriving usability scores directly from user behavior. INUIT has been designed based on reviews of established usability standards and guidelines as well as interviews with nine dedicated usability experts. Its feasibility and effectiveness have been investigated in a user study. Also, a confirmatory factor analysis shows that the instrument can reasonably well describe real-world perceptions of usability. Subsequently, we introduce WaPPU [2], which is a context-aware A/B testing tool based on INUIT. WaPPU implements the novel concept of Usability-based Split Testing and enables automatic usability evaluation of arbitrary SERP interfaces based on a quantitative score that is derived directly from user interactions. For this, usability models are automatically trained and applied based on machine learning techniques. In particular, the tool is not restricted to evaluating SERPs, but can be used with any web interface. Building on the above, we introduce S.O.S., the SERP Optimization Suite [3], which comprises WaPPU as well as a catalog of best practices [4]. Once it has been detected that an investigated SERP's usability is suboptimal based on scores delivered by WaPPU, corresponding optimizations are automatically proposed based on the catalog of best practices. This catalog has been compiled in a three-step process involving reviews of existing SERP interfaces and contributions by 20 dedicated usability experts. While the above focus on the general usability of SERPs, presenting the most relevant results is specifically important for search engines. Hence, our toolkit contains TellMyRelevance! (TMR) [5] — the first end-to-end pipeline for predicting search result relevance based on users’ interactions beyond clicks. TMR is a fully automatic approach that collects necessary information on the client, processes it on the server side and trains corresponding relevance models based on machine learning techniques. Predictions made by these models can then be fed back into the ranking process of the search engine, which improves result quality and hence also usability. StreamMyRelevance! (SMR) [6] takes the concept of TMR one step further by providing a streaming-based version. That is, SMR collects and processes interaction data and trains relevance models in near real-time. Based on a user study and large-scale log analysis involving real-world search engines, we have evaluated the components of the Search Interaction Optimization toolkit as a whole—also to demonstrate the interplay of the different components. S.O.S., WaPPU and INUIT have been engaged in the evaluation and optimization of a real-world SERP interface. Results show that our tools are able to correctly identify even subtle differences in usability. Moreover, optimizations proposed by S.O.S. significantly improved the usability of the investigated and redesigned SERP. TMR and SMR have been evaluated in a GB-scale interaction log analysis as well using data from real-world search engines. Our findings indicate that they are able to yield predictions that are better than those of competing state-of-the-art systems considering clicks only. Also, a comparison of SMR to existing solutions shows its superiority in terms of efficiency, robustness and scalability. The thesis concludes with a discussion of the potential and limitations of the above contributions and provides an overview of potential future work. / Im Laufe der vergangenen 25 Jahre haben sich Suchmaschinen zu einem der wichtigsten, wenn nicht gar dem wichtigsten Zugangspunkt zum World Wide Web (WWW) entwickelt. Diese Entwicklung resultiert vor allem aus der kontinuierlich steigenden Zahl an Dokumenten, welche im WWW verfügbar, jedoch sehr unstrukturiert organisiert sind. Überdies werden Suchergebnisse immer häufiger in Kategorien klassifiziert und in Form semantischer Informationen bereitgestellt, die direkt in der Suchmaschine konsumiert werden können. Dies spiegelt einen allgemeinen Trend wider. Durch die wachsende Zahl an Dokumenten und technologischen Neuerungen wandeln sich die Bedürfnisse von sowohl Nutzern als auch Suchmaschinen ständig. Nutzer wollen mit immer besseren Suchergebnissen und Interfaces versorgt werden, während Suchmaschinen-Unternehmen Werbung platzieren und Gewinn machen müssen, um ihre Dienste kostenlos anbieten zu können. Damit geht die Notwendigkeit einher, in hohem Maße benutzbare und optimierte Suchergebnisseiten – sogenannte SERPs (search engine results pages) – für Nutzer bereitzustellen. Gängige Methoden zur Evaluierung und Optimierung von Usability sind jedoch größtenteils kostspielig oder zeitaufwändig und basieren meist auf explizitem Feedback. Sie sind somit entweder nicht effizient oder nicht effektiv, weshalb Optimierungen an Suchmaschinen-Schnittstellen häufig primär aus dem Unternehmensblickwinkel heraus durchgeführt werden. Des Weiteren sind bestehende Methoden zur Vorhersage der Relevanz von Suchergebnissen, welche größtenteils auf der Auswertung von Klicks basieren, nicht auf neuartige SERPs zugeschnitten. Zum Beispiel versagen diese, wenn Suchanfragen direkt auf der Suchergebnisseite beantwortet werden und der Nutzer nicht klicken muss. Basierend auf den Prinzipien des nutzerzentrierten Designs entwickeln wir eine Lösung in Form eines ganzheitlichen Ansatzes für die oben beschriebenen Probleme. Dieser Ansatz orientiert sich sowohl an Nutzern als auch an Entwicklern. Unsere Lösung stellt automatische Methoden bereit, um unternehmenszentriertem Design entgegenzuwirken und implizites Nutzerfeedback für die effizienteund effektive Evaluierung und Optimierung von Usability und insbesondere Ergebnisrelevanz nutzen zu können. Wir definieren Personas und Szenarien, aus denen wir ungelöste Probleme und konkrete Anforderungen ableiten. Basierend auf diesen Anforderungen entwickeln wir einen entsprechenden Werkzeugkasten, das Search Interaction Optimization Toolkit. Mittels eines Bottom-up-Ansatzes definieren wir zudem eine gleichnamige Methodik auf einem höheren Abstraktionsniveau. Das Search Interaction Optimization Toolkit besteht aus insgesamt sechs Komponenten. Zunächst präsentieren wir INUIT [1], ein neuartiges, minimales Instrument zur Bestimmung von Usability, welches speziell auf sinnvolle Korrelationen mit implizitem Nutzerfeedback in Form Client-seitiger Interaktionen abzielt. Aus diesem Grund dient es als Basis für die direkte Herleitung quantitativer Usability-Bewertungen aus dem Verhalten von Nutzern. Das Instrument wurde basierend auf Untersuchungen etablierter Usability-Standards und -Richtlinien sowie Experteninterviews entworfen. Die Machbarkeit und Effektivität der Benutzung von INUIT wurden in einer Nutzerstudie untersucht und darüber hinaus durch eine konfirmatorische Faktorenanalyse bestätigt. Im Anschluss beschreiben wir WaPPU [2], welches ein kontextsensitives, auf INUIT basierendes Tool zur Durchführung von A/B-Tests ist. Es implementiert das neuartige Konzept des Usability-based Split Testing und ermöglicht die automatische Evaluierung der Usability beliebiger SERPs basierend auf den bereits zuvor angesprochenen quantitativen Bewertungen, welche direkt aus Nutzerinteraktionen abgeleitet werden. Hierzu werden Techniken des maschinellen Lernens angewendet, um automatisch entsprechende Usability-Modelle generieren und anwenden zu können. WaPPU ist insbesondere nicht auf die Evaluierung von Suchergebnisseiten beschränkt, sondern kann auf jede beliebige Web-Schnittstelle in Form einer Webseite angewendet werden. Darauf aufbauend beschreiben wir S.O.S., die SERP Optimization Suite [3], welche das Tool WaPPU sowie einen neuartigen Katalog von „Best Practices“ [4] umfasst. Sobald eine durch WaPPU gemessene, suboptimale Usability-Bewertung festgestellt wird, werden – basierend auf dem Katalog von „Best Practices“ – automatisch entsprechende Gegenmaßnahmen und Optimierungen für die untersuchte Suchergebnisseite vorgeschlagen. Der Katalog wurde in einem dreistufigen Prozess erarbeitet, welcher die Untersuchung bestehender Suchergebnisseiten sowie eine Anpassung und Verifikation durch 20 Usability-Experten beinhaltete. Die bisher angesprochenen Tools fokussieren auf die generelle Usability von SERPs, jedoch ist insbesondere die Darstellung der für den Nutzer relevantesten Ergebnisse eminent wichtig für eine Suchmaschine. Da Relevanz eine Untermenge von Usability ist, beinhaltet unser Werkzeugkasten daher das Tool TellMyRelevance! (TMR) [5], die erste End-to-End-Lösung zur Vorhersage von Suchergebnisrelevanz basierend auf Client-seitigen Nutzerinteraktionen. TMR ist einvollautomatischer Ansatz, welcher die benötigten Daten auf dem Client abgreift, sie auf dem Server verarbeitet und entsprechende Relevanzmodelle bereitstellt. Die von diesen Modellen getroffenen Vorhersagen können wiederum in den Ranking-Prozess der Suchmaschine eingepflegt werden, was schlussendlich zu einer Verbesserung der Usability führt. StreamMyRelevance! (SMR) [6] erweitert das Konzept von TMR, indem es einen Streaming-basierten Ansatz bereitstellt. Hierbei geschieht die Sammlung und Verarbeitung der Daten sowie die Bereitstellung der Relevanzmodelle in Nahe-Echtzeit. Basierend auf umfangreichen Nutzerstudien mit echten Suchmaschinen haben wir den entwickelten Werkzeugkasten als Ganzes evaluiert, auch, um das Zusammenspiel der einzelnen Komponenten zu demonstrieren. S.O.S., WaPPU und INUIT wurden zur Evaluierung und Optimierung einer realen Suchergebnisseite herangezogen. Die Ergebnisse zeigen, dass unsere Tools in der Lage sind, auch kleine Abweichungen in der Usability korrekt zu identifizieren. Zudem haben die von S.O.S.vorgeschlagenen Optimierungen zu einer signifikanten Verbesserung der Usability der untersuchten und überarbeiteten Suchergebnisseite geführt. TMR und SMR wurden mit Datenmengen im zweistelligen Gigabyte-Bereich evaluiert, welche von zwei realen Hotelbuchungsportalen stammen. Beide zeigen das Potential, bessere Vorhersagen zu liefern als konkurrierende Systeme, welche lediglich Klicks auf Ergebnissen betrachten. SMR zeigt gegenüber allen anderen untersuchten Systemen zudem deutliche Vorteile bei Effizienz, Robustheit und Skalierbarkeit. Die Dissertation schließt mit einer Diskussion des Potentials und der Limitierungen der erarbeiteten Forschungsbeiträge und gibt einen Überblick über potentielle weiterführende und zukünftige Forschungsarbeiten.

Page generated in 0.0831 seconds