• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 222
  • 121
  • 45
  • 20
  • 2
  • 1
  • Tagged with
  • 407
  • 262
  • 169
  • 159
  • 94
  • 93
  • 93
  • 73
  • 65
  • 62
  • 55
  • 50
  • 43
  • 42
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Search Interaction Optimization: A Human-Centered Design Approach

Speicher, Maximilian 20 September 2016 (has links)
Over the past 25 years, search engines have become one of the most important, if not the entry point of the World Wide Web. This development has been primarily due to the continuously increasing amount of available documents, which are highly unstructured. Moreover, the general trend is towards classifying search results into categories and presenting them in terms of semantic information that answer users' queries without having to leave the search engine. With the growing amount of documents and technological enhancements, the needs of users as well as search engines are continuously evolving. Users want to be presented with increasingly sophisticated results and interfaces while companies have to place advertisements and make revenue to be able to offer their services for free. To address the above needs, it is more and more important to provide highly usable and optimized search engine results pages (SERPs). Yet, existing approaches to usability evaluation are often costly or time-consuming and mostly rely on explicit feedback. They are either not efficient or not effective while SERP interfaces are commonly optimized primarily from a company's point of view. Moreover, existing approaches to predicting search result relevance, which are mostly based on clicks, are not tailored to the evolving kinds of SERPs. For instance, they fail if queries are answered directly on a SERP and no clicks need to happen. Applying Human-Centered Design principles, we propose a solution to the above in terms of a holistic approach that intends to satisfy both, searchers and developers. It provides novel means to counteract exclusively company-centric design and to make use of implicit user feedback for efficient and effective evaluation and optimization of usability and, in particular, relevance. We define personas and scenarios from which we infer unsolved problems and a set of well-defined requirements. Based on these requirements, we design and develop the Search Interaction Optimization toolkit. Using a bottom-up approach, we moreover define an eponymous, higher-level methodology. The Search Interaction Optimization toolkit comprises a total of six components. We start with INUIT [1], which is a novel minimal usability instrument specifically aiming at meaningful correlations with implicit user feedback in terms of client-side interactions. Hence, it serves as a basis for deriving usability scores directly from user behavior. INUIT has been designed based on reviews of established usability standards and guidelines as well as interviews with nine dedicated usability experts. Its feasibility and effectiveness have been investigated in a user study. Also, a confirmatory factor analysis shows that the instrument can reasonably well describe real-world perceptions of usability. Subsequently, we introduce WaPPU [2], which is a context-aware A/B testing tool based on INUIT. WaPPU implements the novel concept of Usability-based Split Testing and enables automatic usability evaluation of arbitrary SERP interfaces based on a quantitative score that is derived directly from user interactions. For this, usability models are automatically trained and applied based on machine learning techniques. In particular, the tool is not restricted to evaluating SERPs, but can be used with any web interface. Building on the above, we introduce S.O.S., the SERP Optimization Suite [3], which comprises WaPPU as well as a catalog of best practices [4]. Once it has been detected that an investigated SERP's usability is suboptimal based on scores delivered by WaPPU, corresponding optimizations are automatically proposed based on the catalog of best practices. This catalog has been compiled in a three-step process involving reviews of existing SERP interfaces and contributions by 20 dedicated usability experts. While the above focus on the general usability of SERPs, presenting the most relevant results is specifically important for search engines. Hence, our toolkit contains TellMyRelevance! (TMR) [5] — the first end-to-end pipeline for predicting search result relevance based on users’ interactions beyond clicks. TMR is a fully automatic approach that collects necessary information on the client, processes it on the server side and trains corresponding relevance models based on machine learning techniques. Predictions made by these models can then be fed back into the ranking process of the search engine, which improves result quality and hence also usability. StreamMyRelevance! (SMR) [6] takes the concept of TMR one step further by providing a streaming-based version. That is, SMR collects and processes interaction data and trains relevance models in near real-time. Based on a user study and large-scale log analysis involving real-world search engines, we have evaluated the components of the Search Interaction Optimization toolkit as a whole—also to demonstrate the interplay of the different components. S.O.S., WaPPU and INUIT have been engaged in the evaluation and optimization of a real-world SERP interface. Results show that our tools are able to correctly identify even subtle differences in usability. Moreover, optimizations proposed by S.O.S. significantly improved the usability of the investigated and redesigned SERP. TMR and SMR have been evaluated in a GB-scale interaction log analysis as well using data from real-world search engines. Our findings indicate that they are able to yield predictions that are better than those of competing state-of-the-art systems considering clicks only. Also, a comparison of SMR to existing solutions shows its superiority in terms of efficiency, robustness and scalability. The thesis concludes with a discussion of the potential and limitations of the above contributions and provides an overview of potential future work. / Im Laufe der vergangenen 25 Jahre haben sich Suchmaschinen zu einem der wichtigsten, wenn nicht gar dem wichtigsten Zugangspunkt zum World Wide Web (WWW) entwickelt. Diese Entwicklung resultiert vor allem aus der kontinuierlich steigenden Zahl an Dokumenten, welche im WWW verfügbar, jedoch sehr unstrukturiert organisiert sind. Überdies werden Suchergebnisse immer häufiger in Kategorien klassifiziert und in Form semantischer Informationen bereitgestellt, die direkt in der Suchmaschine konsumiert werden können. Dies spiegelt einen allgemeinen Trend wider. Durch die wachsende Zahl an Dokumenten und technologischen Neuerungen wandeln sich die Bedürfnisse von sowohl Nutzern als auch Suchmaschinen ständig. Nutzer wollen mit immer besseren Suchergebnissen und Interfaces versorgt werden, während Suchmaschinen-Unternehmen Werbung platzieren und Gewinn machen müssen, um ihre Dienste kostenlos anbieten zu können. Damit geht die Notwendigkeit einher, in hohem Maße benutzbare und optimierte Suchergebnisseiten – sogenannte SERPs (search engine results pages) – für Nutzer bereitzustellen. Gängige Methoden zur Evaluierung und Optimierung von Usability sind jedoch größtenteils kostspielig oder zeitaufwändig und basieren meist auf explizitem Feedback. Sie sind somit entweder nicht effizient oder nicht effektiv, weshalb Optimierungen an Suchmaschinen-Schnittstellen häufig primär aus dem Unternehmensblickwinkel heraus durchgeführt werden. Des Weiteren sind bestehende Methoden zur Vorhersage der Relevanz von Suchergebnissen, welche größtenteils auf der Auswertung von Klicks basieren, nicht auf neuartige SERPs zugeschnitten. Zum Beispiel versagen diese, wenn Suchanfragen direkt auf der Suchergebnisseite beantwortet werden und der Nutzer nicht klicken muss. Basierend auf den Prinzipien des nutzerzentrierten Designs entwickeln wir eine Lösung in Form eines ganzheitlichen Ansatzes für die oben beschriebenen Probleme. Dieser Ansatz orientiert sich sowohl an Nutzern als auch an Entwicklern. Unsere Lösung stellt automatische Methoden bereit, um unternehmenszentriertem Design entgegenzuwirken und implizites Nutzerfeedback für die effizienteund effektive Evaluierung und Optimierung von Usability und insbesondere Ergebnisrelevanz nutzen zu können. Wir definieren Personas und Szenarien, aus denen wir ungelöste Probleme und konkrete Anforderungen ableiten. Basierend auf diesen Anforderungen entwickeln wir einen entsprechenden Werkzeugkasten, das Search Interaction Optimization Toolkit. Mittels eines Bottom-up-Ansatzes definieren wir zudem eine gleichnamige Methodik auf einem höheren Abstraktionsniveau. Das Search Interaction Optimization Toolkit besteht aus insgesamt sechs Komponenten. Zunächst präsentieren wir INUIT [1], ein neuartiges, minimales Instrument zur Bestimmung von Usability, welches speziell auf sinnvolle Korrelationen mit implizitem Nutzerfeedback in Form Client-seitiger Interaktionen abzielt. Aus diesem Grund dient es als Basis für die direkte Herleitung quantitativer Usability-Bewertungen aus dem Verhalten von Nutzern. Das Instrument wurde basierend auf Untersuchungen etablierter Usability-Standards und -Richtlinien sowie Experteninterviews entworfen. Die Machbarkeit und Effektivität der Benutzung von INUIT wurden in einer Nutzerstudie untersucht und darüber hinaus durch eine konfirmatorische Faktorenanalyse bestätigt. Im Anschluss beschreiben wir WaPPU [2], welches ein kontextsensitives, auf INUIT basierendes Tool zur Durchführung von A/B-Tests ist. Es implementiert das neuartige Konzept des Usability-based Split Testing und ermöglicht die automatische Evaluierung der Usability beliebiger SERPs basierend auf den bereits zuvor angesprochenen quantitativen Bewertungen, welche direkt aus Nutzerinteraktionen abgeleitet werden. Hierzu werden Techniken des maschinellen Lernens angewendet, um automatisch entsprechende Usability-Modelle generieren und anwenden zu können. WaPPU ist insbesondere nicht auf die Evaluierung von Suchergebnisseiten beschränkt, sondern kann auf jede beliebige Web-Schnittstelle in Form einer Webseite angewendet werden. Darauf aufbauend beschreiben wir S.O.S., die SERP Optimization Suite [3], welche das Tool WaPPU sowie einen neuartigen Katalog von „Best Practices“ [4] umfasst. Sobald eine durch WaPPU gemessene, suboptimale Usability-Bewertung festgestellt wird, werden – basierend auf dem Katalog von „Best Practices“ – automatisch entsprechende Gegenmaßnahmen und Optimierungen für die untersuchte Suchergebnisseite vorgeschlagen. Der Katalog wurde in einem dreistufigen Prozess erarbeitet, welcher die Untersuchung bestehender Suchergebnisseiten sowie eine Anpassung und Verifikation durch 20 Usability-Experten beinhaltete. Die bisher angesprochenen Tools fokussieren auf die generelle Usability von SERPs, jedoch ist insbesondere die Darstellung der für den Nutzer relevantesten Ergebnisse eminent wichtig für eine Suchmaschine. Da Relevanz eine Untermenge von Usability ist, beinhaltet unser Werkzeugkasten daher das Tool TellMyRelevance! (TMR) [5], die erste End-to-End-Lösung zur Vorhersage von Suchergebnisrelevanz basierend auf Client-seitigen Nutzerinteraktionen. TMR ist einvollautomatischer Ansatz, welcher die benötigten Daten auf dem Client abgreift, sie auf dem Server verarbeitet und entsprechende Relevanzmodelle bereitstellt. Die von diesen Modellen getroffenen Vorhersagen können wiederum in den Ranking-Prozess der Suchmaschine eingepflegt werden, was schlussendlich zu einer Verbesserung der Usability führt. StreamMyRelevance! (SMR) [6] erweitert das Konzept von TMR, indem es einen Streaming-basierten Ansatz bereitstellt. Hierbei geschieht die Sammlung und Verarbeitung der Daten sowie die Bereitstellung der Relevanzmodelle in Nahe-Echtzeit. Basierend auf umfangreichen Nutzerstudien mit echten Suchmaschinen haben wir den entwickelten Werkzeugkasten als Ganzes evaluiert, auch, um das Zusammenspiel der einzelnen Komponenten zu demonstrieren. S.O.S., WaPPU und INUIT wurden zur Evaluierung und Optimierung einer realen Suchergebnisseite herangezogen. Die Ergebnisse zeigen, dass unsere Tools in der Lage sind, auch kleine Abweichungen in der Usability korrekt zu identifizieren. Zudem haben die von S.O.S.vorgeschlagenen Optimierungen zu einer signifikanten Verbesserung der Usability der untersuchten und überarbeiteten Suchergebnisseite geführt. TMR und SMR wurden mit Datenmengen im zweistelligen Gigabyte-Bereich evaluiert, welche von zwei realen Hotelbuchungsportalen stammen. Beide zeigen das Potential, bessere Vorhersagen zu liefern als konkurrierende Systeme, welche lediglich Klicks auf Ergebnissen betrachten. SMR zeigt gegenüber allen anderen untersuchten Systemen zudem deutliche Vorteile bei Effizienz, Robustheit und Skalierbarkeit. Die Dissertation schließt mit einer Diskussion des Potentials und der Limitierungen der erarbeiteten Forschungsbeiträge und gibt einen Überblick über potentielle weiterführende und zukünftige Forschungsarbeiten.
352

Co-Simulation von LIGGGHTS® und SimulationX® zur Simulation des Zerkleinerungsprozesses in Brechern / Co-simulation of LIGGGHTS® and SimulationX® to simulate the grinding process in crushers

Frenzel, Erik 22 July 2016 (has links) (PDF)
In vielen Bereichen der Tagebautechnik spielt die Zerkleinerung von Material/ -strömen eine wesentliche Rolle, wobei sich je nach Material verschiedene Anforderungen an das Brechersystem ergeben. In Folge dessen werden Brecher auftragsspezifisch, meist für einen speziellen Gesteinstyp oder Einsatzort entwickelt oder modifiziert. Eine aussagekräftige Prognose der im Bruchprozess auftretenden Lasten auf den Brecher ist somit essentieller Bestandteil im Entwicklungsprozess. Ein viel versprechender Ansatz, um das Materialverhalten in der Lastprognose zu berücksichtigen, ist die numerische Simulation des Materialbruchverhaltens mit Hilfe der Diskreten-Elemente-Methode (DEM). Das Verhalten der sogenannten Partikel wird über Kontakt- und bond-Modelle beschrieben und soll das makroskopische Verhalten des jeweiligen Gesteins möglichst realitätsnah abbilden. Die Problematik ist, dass in SimulationX® keine Module zur DEM-Simulation vorhanden sind und umgekehrt in der DEM-Simulationsumgebung LIGGGHTSG® (LAMMPS improved for general granular and granular heat transfer simulations) keine derartige Maschinensimulation möglich ist. Der Ausweg ist die Co-Simulation zweier unterschiedlicher Simulationsumgebungen durch die Nutzung des ,,Functional Mock-Up Interface“-Standards (FMI). Berechnungsergebnis sind die dynamischen Lasten auf den Brecher unter Berücksichtigung des Materialverhaltens. Somit können früher in der Brecherentwicklung Prognosen zu auftretenden Lasten getroffen und Einflussuntersuchungen von Maschinenkonfigurationen zur Effizienzsteigerungen durchgeführt werden, was zuvor auf Grund des Einzelanfertigungscharakters nicht möglich oder nicht wirtschaftlich war.
353

Einfluss von (-)-Epigallocatechin-3-gallat auf den Lungenschaden im Rahmen des kardiopulmonalen Bypasses mittels Herz-Lungen-Maschine in einem Schweinemodell

Kasper, Bernhard 17 November 2016 (has links) (PDF)
Background: Lung dysfunction constitutes a severe complication after major cardiac surgery with cardiopulmonary bypass (CPB), substantially contributing to postoperative morbidity and mortality. The current possibilities of preventive and therapeutic interventions, however, remain insufficient. We, therefore, investigated the effects of intraoperative application of the antioxidant and anti-inflammatory green tea polyphenol epigallocatechin-3-gallate (EGCG) on CPB-associated lung injury. Materials and methods: Thirty piglets (8 - 15 kg) were divided into four groups: sham-operated and saline-treated control group (n = 7); sham-operated and EGCG-treated control group (EGCG-control group; n = 7); CPB group (n = 10); and CPB + EGCG group (n = 6). The CPB groups underwent 120 min of CPB followed by 90 min of recovery time. In the CPB + EGCG group, EGCG (10 mg/kg body weight) was administered intravenously before and after CPB. Hemodynamic monitoring, blood gas analysis, hematoxylin-eosin staining, and immunohistochemistry of lung tissue were performed. Results: Histologic examination revealed thickening of the alveolar wall and enhanced alveolar neutrophil infiltration in the CPB group (P < 0.05) compared with those in the control group, which was prevented by EGCG (P < 0.05). In the CPB group, higher formation of poly(ADP-ribose) and nuclear translocation of apoptosis-inducing factor were detected in comparison with those in the control group (P < 0.001), which were both reduced in the CPB + EGCG group (P < 0.001). Compared with the control group, the EGCG-control group showed thickening of the alveolar wall and increased neutrophil infiltration (P < 0.05). Conclusions: CPB leads to lung edema, pulmonary neutrophil infiltration, and presumably initiation of poly(ADP-ribose) polymerase-dependent cell death signaling in the lung. EGCG appears to attenuate CPB-associated lung injury, suggesting that this may provide a novel pharmacologic approach.
354

Influence of trust in Ambient Assisted Living technologies

Steinke, Frederick 13 March 2015 (has links)
Zwischenmenschliches Vertrauen spielt in Beziehungen eine wichtige Rolle und beinhaltet die Erwartung, dass auf das Wort des Anderen Verlass ist (Rotter, 1967). Auch im Zusammenhang mit Automation und Mensch-Maschine-Systemen erlangt die Betrachtung von Vertrauen in den vergangenen Jahren immer größere Bedeutung. In den Bereichen automatisierte Fahrzeugsteuerung oder militärische Freund-Feind-Erkennung wurde bereits eine Vielzahl von Erhebungen durchgeführt. Einen Forschungsgegenstand, der bislang jedoch weitestgehend unbeachtet geblieben ist, stellen Heim-Automatisierungen und Unterstützungstechnologien für ältere Personen dar. Die vorliegende Dissertation möchte einen Anstoß für die Forschungsaktivitäten im Kontext von Vertrauen in Ambient Assisted Living (AAL) Systeme geben und gleichzeitig die Möglichkeiten von Unterstützungs-technologien (für beeinträchtigte Personen) im Wohnumfeld aufzeigen. Im Fokus der Untersuchung steht dabei das Vertrauen älterer Personen, als potentielle Endnutzer, in AAL Systeme. Nach Durchführung der Literaturanalyse, wurden mittels einer Fragebogenstudie zunächst verschiedene Einflussfaktoren auf das Vertrauen in AAL sowie die Nutzungsabsicht der senioren Zielgruppe erforscht. Unter Einbeziehung der Variablen des Technology Acceptance Modells (TAM) (Davis, 1989) werden Personen mit und ohne täglichem Unterstützungsbedarf befragt. Basierend auf den dadurch gewonnenen Erkenntnissen wurden zwei Experimente durchgeführt. Die Probanden der beiden Experimente, die jeweils eine seniore Testgruppe und eine junge Kontrollgruppe umfassten, sollten mittels eines Mock-Ups auf einem Tablet-Computer verschiedene Aufgaben im Wohnumfeld bearbeiten. Im ersten Experiment wurde zusätzlich zu der Standard-Bedienoberfläche der AAL Technologie, entweder persönliche Unterstützung via Operateur oder eine technische Unterstützung zur Verfügung gestellt. Das zweite Experiment untersuchte drei unterschiedliche Stufen von Zuverlässigkeit einer AAL Applikation. / Interpersonal trust as “expectancy that the verbal statements of others can be relied upon” (Rotter, 1967; p. 651) plays an important role in human relationships. But even in the context of automation and man-machine systems, the consideration of trust has acquired even greater importance in recent years. In the field of automated vehicle control systems or military friend-or-foe recognition, a large number of surveys relating to trust have been conducted. An area of research that, to date, has not been well-investigated is home automation, such as smart home and assistive technologies for older people. The present thesis aims to initiate such research activities in the context of trust in Ambient Assisted Living (AAL) systems, as well as to demonstrate the opportunities that assistive technologies present for impaired persons in the living environment. The focus of the present survey is on the trust of older people, as potential end-users, in AAL systems. To establish an understanding of the state of this research field, a literature review has been conducted. Subsequently, the various factors influencing trust in AAL and usage intention of the elderly target group are examined via a written questionnaire study. Taking into account the variables of the Technology Acceptance Model (TAM) (Davis, 1989), persons with and without need for daily support are interviewed. Based on the obtained results, two subsequent experiments were carried out. The participants in the two experiments, each including a senior test group and a young control group, worked on various tasks through a mock-up on a tablet-computer in the living environment. In the first experiment, in addition to the standard user interface of the AAL technology, either personal support via operator or a technical embedded support was provided to test the differential impact on the trust of the participants in AAL. The second experiment included three different levels of reliability of an AAL application.
355

Entwurf und Berechnung einer Reihe elektrischer Kleinmaschinen mit siebgedruckten Wicklungen

Fietz, Tom 24 February 2012 (has links) (PDF)
Elektrische Maschinen werden heutzutage auf mannigfaltigen Gebieten eingesetzt. Sie verrichten ihre Aufgaben in leistungsstarken Industrieantrieben für Erzmühlen oder Stahlwalzen, als Synchrongeneratoren zur Elektroenergieerzeugung, in Fertigungsanlagen wie Backstraßen oder Fließbänder oder auch im Verkehr, in Zügen oder verstärkt nun auch in Automobilen. Sie erleichtern uns aber auch den Alltag an Stellen, wo sie oft gar nicht wahrgenommen werden. Sie ermöglichen nützliche Helferlein im Auto mithilfe von Servomotoren – Scheibenwischer, Fensterheber oder Seitenspiegelverstellung sind nur ausgewählte Beispiele. Aber auch Fensterrollläden, Klimaanlagen oder Fahrstühle benötigen elektrische Antriebe. Darüber hinaus verstecken sich sie sich als Klein- und Kleinstmaschinen in medizinischen Geräten wie dem Zahnarztbohrer oder in Pflegeprodukten des täglichen Bedarfs von der Haarschneidemaschine, über den Nasenhaartrimmer und Föhn bis hin zur elektrischen Zahnbürste. Da Elektromotoren also in immer mehr Geräten stecken, müssen auch immer größere Stückzahlen gefertigt werden, die am besten nichts kosten. Es besteht somit die große Herausforderung all die Bedürfnisse ressourcenschonend und kostengünstig zu bedienen. Aus diesem Gedanken heraus entstand am Lehrstuhl die Idee, Wicklungen elektrischer Kleinmaschinen zu drucken. Dies geschieht mithilfe der Siebdrucktechnik, wie es schon heute bei RFID-Chips die Regel ist. Es handelt sich also um ein erprobtes Verfahren, das eine günstige Fertigung großer Stückzahlen erlaubt. Erste Erfahrungen wurden bereits gesammelt, hier sei auf [10], [11] und [12] verwiesen. Im Rahmen dieser Diplomarbeit sollen diese Grundlagen nun ausgebaut, gefestigt, sowie erweitert werden. Um einen Eindruck und Überblick zu gewinnen, wird im Folgenden eine Reihe elektrischer Kleinmaschinen entworfen. Hierbei sollen Probleme ausfindig gemacht, Lösungen eruiert und Abweichungen zum konventionellen Entwurf aufgezeigt werden. Im Rahmen dessen werden Berechnungsvorschriften für siebgedruckte Wicklungen abgeleitet und diese schließlich zur Berechnung einer Maschinenreihe mit verschiedenen Außendurchmessern und Längen genutzt. Am Ende der Arbeit sollen ausgewählte Motoren aus der berechneten Reihe stehen, an denen Messungen stattfinden um die verwendeten Algorithmen zu verifizieren.
356

Entwicklung und Gestaltung variabler Bedienelemente für ein Bedien- und Anzeigesystem im Fahrzeug

Sendler, Jochen 25 April 2008 (has links) (PDF)
Angesichts der steigenden Anzahl von Funktionen in Fahrzeugen, insbesondere im Pkw, sind neue Bedien- und Anzeigesysteme notwendig, die eine optimale Bedienbarkeit der Funktionen sicherstellen und die Ablenkung des Fahrers von der Fahraufgabe minimieren. Im Rahmen dieser Arbeit wird dazu der Einsatz variabler Bedienelemente verfolgt, die sich der aktuellen Bedienaufgabe optimal anpassen. Ziel dieser Arbeit ist es insbesondere, Vorgehensweisen und Gestaltungsempfehlungen für variable Beschriftung von Tasten und zentrale Bedienelemente mit variabler Formcodierung für abgesetzte Bedien- und Anzeigesysteme zu erarbeiten. Unter Zuhilfenahme arbeitswissenschaftlicher Methoden wird dafür zunächst die Gestaltung variabler Beschriftung von Tasten untersucht und Empfehlungen für deren Gestaltung abgeleitet. Des Weiteren wird die Entwicklung eines zentralen Bedienelements mit variabler Formcodierung beschrieben. Dazu wird, aufbauend auf bekannten Entwicklungs- und Auswahlverfahren für Bedienelemente, eine Vorgehensweise zur Entwicklung variabler Bedienelemente vorgeschlagen. Das entwickelte variable zentrale Bedienelement wird darüber hinaus hinsichtlich seiner Bedienbarkeit und Ablenkungswirkung bewertet. Aus den Versuchsergebnissen konnten Gestaltungsempfehlungen abgeleitet werden, wie durch ein variables zentrales Bedienelement die Bedienbarkeit von abgesetzten Bedien- und Anzeigesystemen verbessert und die Ablenkungswirkung reduziert werden kann. Die Ergebnisse dieser Arbeit leisten einen Beitrag zur Entwicklung zukünftiger abgesetzter Bedien- und Anzeigesysteme und geben insbesondere Entwicklern und Gestaltern eine Hilfestellung beim Einsatz variabler Bedienelemente.
357

Kapselung von Standard-Betriebssystemen

Mehnert, Frank 21 June 2005 (has links) (PDF)
Populaere Betriebssysteme (Windows XP, UNIX) sind in heutiger Zeit meist monolithisch aufgebaut. Durch immer neue nachgewiesene Sicherheitslücken in Kern und Anwendungen wird eindrucksvoll belegt, dass monolithische Architekturen den heutigen Sicherheitsanforderungen nicht mehr gewachsen sind. Dennoch kann man auf die reichhaltige Basis an Anwendungen heutiger Betriebssysteme nicht verzichten. Als Ausweg werden herkoemmliche Betriebssysteme isoliert in einer vertrauenswuerdigen Umgebung ausgeführt. Eine in letzter Zeit immer populaerere Methode zur Kapselung besteht in der Virtualisierung mit verschiedenen Auspraegungen. Mit L4Linux wurde 1997 erstmals nachgewiesen, dass die Ausfuehrung eines Standard-Betriebssystems auf einem Mikrokern (manchmal auch Para-Virtualisierung genannt) nicht zwangslaeufig zu inakzeptablen Mehrkosten an Laufzeit fuehren muss. Bei Einsatz von gebraeuchlicher Standardhardware muessen allerdings eine Reihe von Problemen geloest werden, unter anderem der uneingeschraenkte Zugriff von Geraeten auf den physischen Adressraum mittels DMA. Im Rahmen der Arbeit wird ein allgemeines Modell von IO-Adressraeumen als Erweiterung der virtuellen Adressraeume der CPU eingefuehrt und gezeigt, wie mittels Teil-Virtualisierung von Geraeten IO-Adressraeume in Software emuliert werden koennen. Weiterhin werden anhand von L4Linux Moeglichkeiten eroertert und implementiert, wie Betriebssystem-Kerne vollstaendig gezaehmt und insbesondere ohne IO-Privilegien ausgefuehrt werden koennen. Im Kapitel &amp;quot;Leistungsbewertung&amp;quot; erfolgt eine umfangreiche Evaluation der Implementierung anhand von L4Linux 2.2.
358

Haptische und akustische Kenngrößen zur Objektivierung und Optimierung der Wertanmutung von Schaltern und Bedienfeldern für den Kfz-Innenraum

Anguelov, Nikolay 31 August 2009 (has links) (PDF)
Neben der äußeren Formgebung und den guten Fahreigenschaften eines Kraftfahrzeugs kommt dem Innenraum eine immer größer werdende Bedeutung für die Schaffung einer positiven Emotionalität zu. Der Innenraum ist der Bereich, in dem der Kunde den engsten Kontakt mit dem Auto hat. Hier bewältigt er seine Fahraufgabe, hier „lebt“ er während der Fahrzeugnutzung. Die unterschiedliche Gewichtung der Anforderungen für die Gestaltung des Fahrzeuginnenraums bei den verschiedenen Automobilherstellern führte zu Beginn der 1990er-Jahre dazu, dass die Stellteile trotz einer steigenden Anzahl von Funktionen tendenziell abnahmen. Dies wurde durch die Einführung von sogenannten multifunktionalen Stellteilen ermöglicht. Eine intern durchgeführte Analyse von Anordnungskonzepten für Bedienelemente im PKW-Innenraum [Anguelov, 2002] bestätigte die folgenden zwei Erkenntnisse: Erstens findet eine Funktionsgruppierung der Stellteile und damit auch eine räumliche Gruppierung im Innenraum statt, zweitens sind die am häufigsten betätigten Stellteile der Taster und der Drehschalter. Weiterhin zeigte diese Analyse, dass häufig und herstellerunabhängig für sicherheits- und fahrspezifische Funktionen Taster und/oder Drehschalter verwendet werden – Start-Stopp- Taster, Taster für die Warnblinkanlage, Notruftaster, Taster für das elektronische Stabilitätsprogramm (ESP), Lichtdrehschalter etc. Der Kunde interessiert sich nicht dafür, was sich hinter dem einzelnen Bedienelement verbirgt, solange es seine Funktion erfüllt. Außerdem erwartet der Kunde hinsichtlich des Interieurs, dass der erste optische Eindruck durch die bei der Betätigung der Bedienelemente wahrnehmbare Haptik und das dabei auftretende Geräusch bestätigt wird. Kann diese Erwartungshaltung aufgrund des Schaltergeräusches nicht bestätigt werden, so verliert selbst ein ergonomisch hervorragender und mit einer ansprechenden Optik versehener Schalter jedwede Kundenakzeptanz. Die Steigerung der haptischen und akustischen Wertigkeit im Innenraum erweist sich daher als ein wesentlicher Beitrag zur Wertanmutung des gesamten Fahrzeugs. Kundengruppen mit spezifischen Eigenschaften und Motiven zu identifizieren und zu beschreiben. Psychologen arbeiten stetig an der Verbesserung der existierenden Kundentypologien, wobei Merkmale wie z. B. der Fahrstil und die technische Affinität berücksichtigt werden. Ohne ein solides Wissen über die speziellen Wünsche und Erwartungen der Kunden bezüglich der haptischen und akustischen Gestaltung der Bedienelemente ist der Automobilhersteller oft zu weit vom Kunden entfernt und entwickelt Produkte, welche die erwartete und erhoffte Kundenakzeptanz verfehlen. Aber nicht nur die Automobilhersteller, sondern auch die entsprechenden Zulieferer entdecken zunehmend die Wichtigkeit der Wertanmutung, wie folgende Zitate belegen: „Die Wertanmutung wird zu einem der wichtigsten Kriterien beim Kauf“ [Pressemappe Fa. Faurecia, Oktober 2004]; „Wertigkeit und Emotion sind entscheidende Elemente im Fahrzeuginnenraum. Denn die empfundene Wertanmutung ist bedeutend für die Kaufentscheidung des Kunden“ [Internetpublikation, Fa. Bayern Innovativ GmbH, Innovationskongress November 2006]. Trotz der weitverbreiteten Verwendung des Kunstwortes „Wertanmutung“ liegen seine genaue Bedeutung und Herkunft noch immer im Dunkeln, da es eine klare und eindeutige Definition des Begriffes in der deutschen Sprache bis heute nicht gibt. Aus den im Duden beschriebenen Bedeutungen der Begriffe „anmuten“1 und „zumuten“2 ließe sich jedoch ableiten, dass dieses Begriffspaar für eine Subjekt-Objekt- Beziehung steht bzw. auf eine solche übertragen werden kann. Demzufolge fühlt sich ein Subjekt „angemutet“ als Reaktion auf die „Zumutung“ eines Gegenstandes. Darüber hinaus suggeriert der Begriff „Anmutung“ ein gefühlsmäßiges, meist unbewusstes Eindruckerlebnis.
359

Robotic Companionship : The Making of Anthropomatic Kitchen Robots in Queer Feminist Technoscience Perspective / Robotsällskap : En technovetenskaplig kulturstudie av skapandet av humanoida hushållsrobotar ur queerfeministiska och posthumana perspektiv

Treusch, Pat January 2015 (has links)
Specific machines furnish the contemporary socio-technical imaginary: ‘Robot companions’ that supposedly herald the age of robots, an age that is signified by the realization of robot technologies that are taking over labor from humans in every sphere of ‘everyday human lives’. How do we want these robot companions to work and look and how do we want to live with these machines?  This thesis explores the engineering of relating humans and machines in the specific context of contemporary robotics from a queer feminist technoscience perspective. The ways in which such engineering processes implement ‘human-likeness’ in realizing the figure of the robot companion are of special concern. At the heart of this study is one robot model: Armar, developed at the Institute for Anthropomatics and Robotics at the Karlsruhe Institute of Technology. Participating in the local everyday practices of establishing the efficient robot-human interface in the kitchen laboratory, this study investigates the ways in which Armar is made domestic as a prospective care service provider and companion in the kitchen. This study applies a posthumanist frame of research to investigate the practices of making anthropomatic kitchen robots. It employs an understanding of this making in terms of ‘performing the kitchen’. This further entails querying the ways in which norms of ‘humanness’ are translated into the human-like robot as well as the idea of pre-figured embodied entities with individual properties that meet in the laboratory. Thus, this thesis maps the labors and reciprocities of learning to see and experience this specific robot model as a future human-like companion for humans by analyzing the apparatuses of bodily co-production between human and machine that are at work in the kitchen laboratory. / Avhandlingen undersöker sociotekniska processer inom samtida robotik som både upprätthåller och skapar människa – maskin relationer ur ett feministiskt teknovetenskapligt perspektiv. Speciellt undersöks hur ingenjörer skapar robot-människa gränssnitt för hushållsrobotik och implementerar människolikhet i skapandet av framtidens robotsällskap. En specifik robotmodell, Armar, och dess utveckling följs vid Institutet för Antropomatik och Robotik, Tekniska Högskola i Karlsruhe i södra Tyskland. Armar ”bor” och verkar där i ett kökslaboratorium, en simulerad vardagsyta utvecklad för forskning och offentliga demonstrationer. Men hushållsrobotar har också en speciell plats i vår kulturella föreställningsvärld. I denna studie undersöks det sociotekniska och kulturella processen att domesticera robotar och ge dem status som prospektiva hjälpredor och sällskap i köket. Som en sådan kartläggning av ömsesidigt människa-maskin skapande teoretiserar studien den kroppsproducerande apparaten (Haraway 1991) som sätts i spel i detta kökslabb och i robot-människa gränssnittet. I studien utforskas ickemänsklig agens och posthumanistisk performativitet (Barad 2003) samt gränsdragningsarbetet mellan Jaget och Andra, människa och maskin, subject och objekt. Avhandlingen gör ett bidrag till förståelsen av kroppsliga normer och socio-materiella ömsesidigheter i skapandet av förmänskligat robotsällskap. / Ob in Medienberichten oder Kinofilmen – aktuell prägen Maschinen das sozio-technische Imaginäre, die nach menschlichem Vorbild entwickelt werden, um in das ‘alltäglich-menschliche’ Leben einzutreten und dieses nachhaltig zu verändern. In ihrer Allgegenwärtigkeit künden sie das Zeitalter der Roboter an, das verspricht, den Lebensstandard, den sich der globale Norden zuschreibt, zu verbessern. Im Fokus dieser Studie steht ein spezifisches Robotermodell, Armar, das am Institut für Anthropomatik und Robotik des Instituts für Technologie in Karlsruhe (Deutschland) entwickelt wird. In der Analyse von Interviews, teilnehmender Beobachtung sowie Fotomaterial untersucht diese Studie die alltäglichen Praktiken im Robotik-Küchenlabor, durch die Armar zur Begleiter_in und Care-Arbeiter_in in der Küche wird. Die posthumanistische, queer-feministische Rahmung der Analyse erlaubt es, die Herstellung des anthropomatischen Küchenroboters als ein Performing the Kitchen zu verstehen. Die Arbeit fokussiert damit auf die Bedingungen und die Akteur_innen – sowohl menschliche als auch nichtmenschliche – und fragt nach den Normen des Menschlichen, die bei dem Arbeiten an einer ,menschenähnlichen‘ Maschine produziert, aber auch verändert werden. Dabei zeichnet sie nach, dass Entitäten mit verkörperten Eigenschaften nicht präexistieren, sondern aus komplexen Mensch-Maschine-Verhältnissen der Ko-Produktion hervorgehen.
360

Computergestützte Entwurfsmethoden auf gekrümmten Oberflächen

Kühnert, Tom 27 August 2015 (has links) (PDF)
Im Fokus dieser Arbeit steht die Entwicklung und Realisierung einer Nutzerschnittstelle für die computergestützte Bearbeitung von Oberflächen dreidimensionaler Designobjekte, die durch herkömmliche CAD-Systeme nur unzureichend unterstützt werden können. Es werden Methoden und Algorithmen erarbeitet, um die Interaktion des Benutzers direkt auf Basis der für das Design relevanten 3D Objektoberflächen zu ermöglichen. Den Ausgangspunkt bildet das Proxy-Konzept des Forschungsfeldes zur Mensch-Maschine-Interaktion, in welchem physische Stellvertreterobjekte zur Manipulation virtueller Objekte genutzt werden. Im ersten Teil der Arbeit wird dieses Konzept um eine auf die Oberfläche des bearbeiteten Objektes bezogene Interaktion und Designfunktionalität erweitert. Dazu wird das Konzept eines CAD-Proxys entwickelt und verschiedene Umsetzungen und Anwendungen erläutert. Dabei werden die CAD-Proxys in drei Typen unterschieden. Der exakte CAD-Proxy ermöglicht es, ein virtuelles Objekt mit einem formgleichen, physischen Gegenstück zu bearbeiten. Beim abstrakten CAD-Proxy wird gezeigt, wie auch ein anders geformtes Gegenstück zum Einsatz kommen kann. Der augmentierte CAD-Proxy erlaubt die Anzeige des Designs direkt auf dem physischen Gegenstück. Nutzerstudien belegen, dass die CAD-Proxys zur Erstellung eines Designs auf einer Oberfläche deutlich besser geeignet sind als eine klassische Nutzerschnittstelle. Dies gilt insbesondere für anspruchsvolle Designaufgaben, etwa im künstlerischen Design. Im zweiten Teil der Arbeit wird die Verarbeitung von Linienzügen im Gestaltungsprozess eingeführt, welche das Konzept der aktiven Konturen auf Oberflächen erweitern. Diese Linienzüge werden auf die Form der Oberfläche bezogen verarbeitet und beachten gleichzeitig wichtige Merkmale, wie bspw. die Kanten des Objektes. Es wird ein neues Verfahren vorgestellt, mit dem aktive Konturen auch auf schlecht vernetzten Oberflächen eingesetzt werden können und gleichzeitig Formen flexibler repräsentieren können als bisherige Ansätze. Für den Bezug der Designlinien zur Oberfläche wird eine neue Datenstruktur eingeführt, die ein geometrisches Nachbarschaftsproblem löst. Es wird gezeigt, dass diese Struktur auf den getesteten Objekten mindestens um Faktor 14 schneller ist als alternative Ansätze und auch direkt auf andere Problemstellungen anwendbar ist. Der dritte Teil enthält die Betrachtungen zum Formverständnis der Designobjekte, welche für die Designlinien und die Modellierung der Designobjekte benötigt werden. Dabei kommt die Krümmungsberechnung als etabliertes Werkzeug derartiger Analysen zum Einsatz. Hier wird eine neue Betrachtung erarbeitet, die den Einfluss unterschiedlicher Faktoren auf die Genauigkeit der Krümmungsschätzung und auf die Eignung verschiedener Schätzungsverfahren erstmals umfassend untersucht. Durch die Kombination existierender Verfahren kann das Verfahren der Shape Operator Approximation entwickelt werden, welches Eigenschaften wie Schätzungsgenauigkeit, Performanz und eine einfache Formulierung bekannter Verfahren vereint.

Page generated in 0.3166 seconds