• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1374
  • 382
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2524
  • 1657
  • 1214
  • 1211
  • 1199
  • 458
  • 393
  • 363
  • 344
  • 344
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
691

Vädrets påverkan på byggarbetsplatsen

Müller, Henrik, Villamil, Jair, Andersson, Jonas January 2008 (has links)
This exam report contains studies about how the weather affects the construction site from a planning and productivity perspective. In 1960’s the contractors started to build during the winter, since then the demands to obtain a good construction has been higher on both the contractor and then promoter. In this report you will see how the different actors at the construction site handle the weather problems. By several interviews of the actors at the construction site there have been opinions about the weather situation which has been collected. To get a wide perspective of the problem, field studies from four different construction sites been made. Weather statistics over Halmstad is a mayor part of this report. Wind, temperature and precipitation will be presented in diagrams and tables divided over all months. The point with these tables and diagrams are ment to be a help during the projecting and timetable planning of the construction project. In this report we came up with the following; that weather is a big negative factor on the construction site. The losses related to productivity are mayor, especially during framework. If no consideration is taken to the weather, productivity losses for one year will be significant. From interviews and weather statistics the final result has been that April and May are the most productive months of the year.
692

Algebraic approach towards conductivity in ergodic media

Wagner, Ingo 13 December 2013 (has links) (PDF)
This thesis is about an operator algebraic approach towards the derivation of the electrical conductivity in disordered solid states based on the theory of quantum many-particle systems. Such an approach is of interest since it allows for the description of interacting electron gases, which is a feature not present in previous work. In the context of the description of ergodic media, new concepts are introduced, such as covariant states and covariant morphisms. Moreover, the concept of covariant states is combined with the well-known concept of KMS states. In its covariant form, KMS states describe electron gases in ergodic media at thermal equilibrium. Such states are the starting point of the electron gases considered here. An external electric field is applied to the system, influences the electron gas and causes internal electric currents. Thus, the equilibrium position of the system is disturbed, leading to a time evolution of the system, which is described by covariant automorphisms. Summing up, the system is given in a time dependent, covariant state that acts on the algebra of bounded and local operators on the fermionic Fock space defined over some given one-particle Hilbert space. For a discrete model of an extended electron gas in one space dimension with a pair interaction of finite range, explicit constructions of the above states are presented. In addition, for the special case of non-interacting electron gases, the construction of the time dependent covariant state is carried out in arbitrary space dimension. Since measurements in a quantum system are implemented by the action of its state on bounded, local and self-adjoint operators, the concept of a current density operator is introduced. The current density is then defined as the result of the measurement of the current density operator. By an application of Birkhoff’s ergodic theorem, the transformation law of the current density operator together with the covariant transformation law of the state of the electron gas implies the almost sure existence of the spatial mean of the current density. Moreover, the spatial mean current density is almost surely independent of the concrete realisation given. The electric current density describes the linear dependence of the spatial mean current density on the external electric field, for small strengths. Via linear response theory for the noninteracting model of an electron gas, an explicit expression for the current density is derived in terms of a so called Kubo formula. For the derivation the system needs to satisfy a localisation condition, which is specifically designed for non-interacting electron gases. In view of a linear response theory of interacting electron gases, candidates for a generalisation of this localisation criterion that also apply to interacting systems are introduced.
693

Advances in boosting of temporal and spatial models

Robinzonov, Nikolay 30 January 2013 (has links) (PDF)
Boosting is an iterative algorithm for functional approximation and numerical optimization which can be applied to solve statistical regression-type problems. By design, boosting can mimic the solutions of many conventional statistical models, such as the linear model, the generalized linear model, and the generalized additive model, but its strength is to enhance these models or even go beyond. It enjoys increasing attention since a) it is a generic algorithm, easily extensible to exciting new problems, and b) it can cope with``difficult'' data where conventional statistical models fail. In this dissertation, we design autoregressive time series models based on boosting which capture nonlinearity in the mean and in the variance, and propose new models for multi-step forecasting of both. We use a special version of boosting, called componentwise gradient boosting, which is innovative in the estimation of the conditional variance of asset returns by sorting out irrelevant (lagged) predictors. We propose a model which enables us not only to identify the factors which drive market volatility, but also to assess the specific nature of their impact. Therefore, we gain a deeper insight into the nature of the volatility processes. We analyze four broad asset classes, namely, stocks, commodities, bonds, and foreign exchange, and use a wide range of potential macro and financial drivers. The proposed model for volatility forecasting performs very favorably for stocks and commodities relative to the common GARCH(1,1) benchmark model. The advantages are particularly convincing for longer forecasting horizons. To our knowledge, the application of boosting to multi-step forecasting of either the mean or the variance has not been done before. In a separate study, we focus on the conditional mean of German industrial production. With boosting, we improve the forecasting accuracy when compared to several competing models including the benchmark in this field, the linear autoregressive model. In an exhaustive simulation study we show that boosting of high-order nonlinear autoregressive time series can be very competitive in terms of goodness-of-fit when compared to alternative nonparametric models. Finally, we apply boosting in a spatio-temporal context to data coming from outside the econometric field. We estimate the browsing pressure on young beech trees caused by the game species within the borders of the Bavarian Forest National Park ``Bayerischer Wald,'' Germany. We found that using the geographic coordinates of the browsing cases contributes considerably to the fit. Furthermore, this bivariate geographic predictor is better suited for prediction if it allows for abrupt changes in the browsing pressure.
694

Generalized and efficient outlier detection for spatial, temporal, and high-dimensional data mining

Schubert, Erich 20 December 2013 (has links) (PDF)
Knowledge Discovery in Databases (KDD) ist der Prozess, nicht-triviale Muster aus großen Datenbanken zu extrahieren, mit dem Ziel, dass diese bisher unbekannt, potentiell nützlich, statistisch fundiert und verständlich sind. Der Prozess umfasst mehrere Schritte wie die Selektion, Vorverarbeitung, Evaluierung und den Analyseschritt, der als Data-Mining bekannt ist. Eine der zentralen Aufgabenstellungen im Data-Mining ist die Ausreißererkennung, das Identifizieren von Beobachtungen, die ungewöhnlich sind und mit der Mehrzahl der Daten inkonsistent erscheinen. Solche seltene Beobachtungen können verschiedene Ursachen haben: Messfehler, ungewöhnlich starke (aber dennoch genuine) Abweichungen, beschädigte oder auch manipulierte Daten. In den letzten Jahren wurden zahlreiche Verfahren zur Erkennung von Ausreißern vorgeschlagen, die sich oft nur geringfügig zu unterscheiden scheinen, aber in den Publikationen experimental als ``klar besser'' dargestellt sind. Ein Schwerpunkt dieser Arbeit ist es, die unterschiedlichen Verfahren zusammenzuführen und in einem gemeinsamen Formalismus zu modularisieren. Damit wird einerseits die Analyse der Unterschiede vereinfacht, andererseits aber die Flexibilität der Verfahren erhöht, indem man Module hinzufügen oder ersetzen und damit die Methode an geänderte Anforderungen und Datentypen anpassen kann. Um die Vorteile der modularisierten Struktur zu zeigen, werden (i) zahlreiche bestehende Algorithmen in dem Schema formalisiert, (ii) neue Module hinzugefügt, um die Robustheit, Effizienz, statistische Aussagekraft und Nutzbarkeit der Bewertungsfunktionen zu verbessern, mit denen die existierenden Methoden kombiniert werden können, (iii) Module modifiziert, um bestehende und neue Algorithmen auf andere, oft komplexere, Datentypen anzuwenden wie geographisch annotierte Daten, Zeitreihen und hochdimensionale Räume, (iv) mehrere Methoden in ein Verfahren kombiniert, um bessere Ergebnisse zu erzielen, (v) die Skalierbarkeit auf große Datenmengen durch approximative oder exakte Indizierung verbessert. Ausgangspunkt der Arbeit ist der Algorithmus Local Outlier Factor (LOF). Er wird zunächst mit kleinen Erweiterungen modifiziert, um die Robustheit und die Nutzbarkeit der Bewertung zu verbessern. Diese Methoden werden anschließend in einem gemeinsamen Rahmen zur Erkennung lokaler Ausreißer formalisiert, um die entsprechenden Vorteile auch in anderen Algorithmen nutzen zu können. Durch Abstraktion von einem einzelnen Vektorraum zu allgemeinen Datentypen können auch räumliche und zeitliche Beziehungen analysiert werden. Die Verwendung von Unterraum- und Korrelations-basierten Nachbarschaften ermöglicht dann, einen neue Arten von Ausreißern in beliebig orientierten Projektionen zu erkennen. Verbesserungen bei den Bewertungsfunktionen erlauben es, die Bewertung mit der statistischen Intuition einer Wahrscheinlichkeit zu interpretieren und nicht nur eine Ausreißer-Rangfolge zu erstellen wie zuvor. Verbesserte Modelle generieren auch Erklärungen, warum ein Objekt als Ausreißer bewertet wurde. Anschließend werden für verschiedene Module Verbesserungen eingeführt, die unter anderem ermöglichen, die Algorithmen auf wesentlich größere Datensätze anzuwenden -- in annähernd linearer statt in quadratischer Zeit --, indem man approximative Nachbarschaften bei geringem Verlust an Präzision und Effektivität erlaubt. Des weiteren wird gezeigt, wie mehrere solcher Algorithmen mit unterschiedlichen Intuitionen gleichzeitig benutzt und die Ergebnisse in einer Methode kombiniert werden können, die dadurch unterschiedliche Arten von Ausreißern erkennen kann. Schließlich werden für reale Datensätze neue Ausreißeralgorithmen konstruiert, die auf das spezifische Problem angepasst sind. Diese neuen Methoden erlauben es, so aufschlussreiche Ergebnisse zu erhalten, die mit den bestehenden Methoden nicht erreicht werden konnten. Da sie aus den Bausteinen der modularen Struktur entwickelt wurden, ist ein direkter Bezug zu den früheren Ansätzen gegeben. Durch Verwendung der Indexstrukturen können die Algorithmen selbst auf großen Datensätzen effizient ausgeführt werden. / Knowledge Discovery in Databases (KDD) is the process of extracting non-trivial patterns in large data bases, with the focus of extracting novel, potentially useful, statistically valid and understandable patterns. The process involves multiple phases including selection, preprocessing, evaluation and the analysis step which is known as Data Mining. One of the key techniques of Data Mining is outlier detection, that is the identification of observations that are unusual and seemingly inconsistent with the majority of the data set. Such rare observations can have various reasons: they can be measurement errors, unusually extreme (but valid) measurements, data corruption or even manipulated data. Over the previous years, various outlier detection algorithms have been proposed that often appear to be only slightly different than previous but ``clearly outperform'' the others in the experiments. A key focus of this thesis is to unify and modularize the various approaches into a common formalism to make the analysis of the actual differences easier, but at the same time increase the flexibility of the approaches by allowing the addition and replacement of modules to adapt the methods to different requirements and data types. To show the benefits of the modularized structure, (i) several existing algorithms are formalized within the new framework (ii) new modules are added that improve the robustness, efficiency, statistical validity and score usability and that can be combined with existing methods (iii) modules are modified to allow existing and new algorithms to run on other, often more complex data types including spatial, temporal and high-dimensional data spaces (iv) the combination of multiple algorithm instances into an ensemble method is discussed (v) the scalability to large data sets is improved using approximate as well as exact indexing. The starting point is the Local Outlier Factor (LOF) algorithm, which is extended with slight modifications to increase robustness and the usability of the produced scores. In order to get the same benefits for other methods, these methods are abstracted to a general framework for local outlier detection. By abstracting from a single vector space, other data types that involve spatial and temporal relationships can be analyzed. The use of subspace and correlation neighborhoods allows the algorithms to detect new kinds of outliers in arbitrarily oriented subspaces. Improvements in the score normalization bring back a statistic intuition of probabilities to the outlier scores that previously were only useful for ranking objects, while improved models also offer explanations of why an object was considered to be an outlier. Subsequently, for different modules found in the framework improved modules are presented that for example allow to run the same algorithms on significantly larger data sets -- in approximately linear complexity instead of quadratic complexity -- by accepting approximated neighborhoods at little loss in precision and effectiveness. Additionally, multiple algorithms with different intuitions can be run at the same time, and the results combined into an ensemble method that is able to detect outliers of different types. Finally, new outlier detection methods are constructed; customized for the specific problems of these real data sets. The new methods allow to obtain insightful results that could not be obtained with the existing methods. Since being constructed from the same building blocks, there however exists a strong and explicit connection to the previous approaches, and by using the indexing strategies introduced earlier, the algorithms can be executed efficiently even on large data sets.
695

Peripheral interaction

Hausen, Doris 14 February 2014 (has links) (PDF)
In our everyday life we carry out a multitude of activities in parallel without focusing our attention explicitly on them. We drink a cup of tea while reading a book, we signal a colleague passing by with a hand gesture, that we are concentrated right now and that he should wait one moment, or we walk a few steps backwards while taking photos. Many of these interactions - like drinking, sending signals via gestures or walking - are rather complex by themselves. By means of learning and training, however, these interactions become part of our routines and habits and therefore only consume little or no attentional resources. In contrast, when interacting with digital devices, we are often asked for our full attention. To carry out - even small and marginal tasks - we are regularly forced to switch windows, do precise interactions (e.g., pointing with the mouse) and thereby these systems trigger context and focus switches, disrupting us in our main focus and task. Peripheral interaction aims at making use of human capabilities and senses like divided attention, spatial memory and proprioception to support interaction with digital devices in the periphery of the attention, consequently quasi-parallel to another primary task. In this thesis we investigate peripheral interaction in the context of a standard desktop computer environment. We explore three interaction styles for peripheral interaction: graspable interaction, touch input and freehand gestures. StaTube investigates graspable interaction in the domain of instant messaging, while the Appointment Projection uses simple wiping gestures to access information about upcoming appointments. These two explorations focus on one interaction style each and offer first insights into the general benefits of peripheral interaction. In the following we carried out two studies comparing all three interaction styles (graspable, touch, freehand) for audio player control and for dealing with notifications. We found that all three interaction styles are generally fit for peripheral interaction but come with different advantages and disadvantages. The last set of explorative studies deals with the ability to recall spatial locations in 2D as well as 3D. The Unadorned Desk makes use of the physical space around the desktop computer and thereby offers an extended interaction space to store and retrieve virtual items such as commands, applications or tools. Finally, evaluation of peripheral interaction is not straightforward as the systems are designed to blend into the environment and not draw attention on them. We propose an additional evaluation method for the lab to complement the current evaluation practice in the field. The main contributions of this thesis are (1) an exhaustive classification and a more detailed look at manual peripheral interaction for tangible, touch and freehand interaction. Based on these exploration with all three interaction styles, we offer (2) implications in terms of overall benefits of peripheral interaction, learnability and habituation, visual and mental attention, feedback and handedness for future peripheral interaction design. Finally, derived from a diverse set of user studies, we assess (3) evaluation strategies enriching the design process for peripheral interaction. / In unserem täglichen Leben führen wir eine große Anzahl an Aktivitäten parallel aus ohne uns explizit darauf zu konzentrieren. Wir trinken Tee während wir ein Buch lesen, wir signalisieren einem Kollegen durch eine Handgeste, dass wir gerade konzentriert sind und er einen Moment warten soll oder wir gehen ein paar Schritte rückwärts während wir fotografieren. Viele dieser Aktivitäten - wie beispielsweise Trinken, Gestikulieren und Laufen - sind an sich komplex. Durch Training werden diese Tätigkeiten allerdings Teil unserer Routinen und Gewohnheiten, und beanspruchen daher nur noch wenig oder sogar keine Aufmerksamkeit. Im Gegensatz dazu, verlangen digitale Geräte meist unsere volle Aufmerksamkeit während der Interaktion. Um - oftmals nur kleine - Aufgaben durchzuführen, müssen wir Fenster wechseln, präzise Aktionen durchführen (z.B. mit dem Mauszeiger zielen) und werden dabei durch die Systeme zu einem Kontext- und Fokuswechsel gezwungen. Periphere Interaktion hingegen macht sich menschliche Fähigkeiten wie geteilte Aufmerksamkeit, das räumliche Gedächtnis und Propriozeption zu Nutze um Interaktion mit digitalen Geräten am Rande der Aufmerksamkeit also der Peripherie zu ermöglichen -- quasi-parallel zu einem anderen Primärtask. In dieser Arbeit untersuchen wir Periphere Interaktion am Computerarbeitsplatz. Dabei betrachten wir drei verschiedene Interaktionsstile: Begreifbare Interaktion (graspable), Touch Eingabe und Freiraum Gestik (freehand). StaTube untersucht Begreifbare Interaktion am Beispiel von Instant Messaging, während die Appointment Projection einfache Wischgesten nutzt, um Informationen nahender Termine verfügbar zu machen. Diese beiden Untersuchungen betrachten jeweils einen Interaktionsstil und beleuchten erste Vorteile, die durch Periphere Interaktion erzielt werden können. Aufbauend darauf führen wir zwei vergleichende Studien zwischen allen drei Interaktionsstilen durch. Als Anwendungsszenarien dienen Musiksteuerung und der Umgang mit Benachrichtigungsfenstern. Alle drei Interaktionsstile können erfolgreich für Periphere Interaktion eingesetzt werden, haben aber verschiedene Vor- und Nachteile. Die letzte Gruppe von Studien befasst sich mit dem räumlichen Gedächtnis in 2D und 3D. Das Unadorned Desk nutzt den physikalischen Raum neben dem Desktop Computer um virtuelle Objekte, beispielsweise Funktionen, Anwendungen oder Werkzeuge, zu lagern. Darüber hinaus ist die Evaluation von Peripherer Interaktion anspruchsvoll, da sich die Systeme in die Umwelt integrieren und gerade keine Aufmerksamkeit auf sich ziehen sollen. Wir schlagen eine Evaluationsmethode für das Labor vor, um die derzeitig vorherrschenden Evaluationsmethoden in diesem Forschungsfeld zu ergänzen. Die Kernbeiträge dieser Arbeit sind eine (1) umfassende Klassifizierung und ein detaillierter Blick auf manuelle Periphere Interaktion, namentlich Begreifbare Interaktion, Touch Eingabe und Freiraum Gestik. Basierend auf unseren Untersuchungen ziehen wir (2) Schlussfolgerungen, die den generellen Nutzen von Peripherer Interaktion darlegen und Bereiche wie die Erlernbarkeit und Gewöhnung, visuelle und mentale Aufmerksamkeit, Feedback so wie Händigkeit beleuchten um zukünftige Projekte im Bereich der Peripheren Interaktion zu unterstützen. Aufbauend auf den verschiedenen Nutzerstudien, diskutieren wir Evaluationsstrategien um den Entwicklungsprozess Peripherer Interaktion zu unterstützen.
696

Model-based recursive partitioning meets item response theory

Kopf, Julia 28 October 2013 (has links) (PDF)
The aim of this thesis is to develop new statistical methods for the evaluation of assumptions that are crucial for reliably assessing group-differences in complex studies in the field of psychological and educational testing. The framework of item response theory (IRT) includes a variety of psychometric models for scaling latent traits such as the widely-used Rasch model. The Rasch model ensures objective measures and fair comparisons between groups of subjects. However, this important property holds only if the underlying assumptions are met. One essential assumption is the invariance property. Its violation is extensively discussed in the literature and termed differential item functioning (DIF). This thesis focuses on the methodology of DIF detection. Existing methods for DIF detection are briefly discussed and new statistical methods for DIF detection are introduced together with new anchor methods. The methods introduced in this thesis allow to classify items with and without DIF more accurately and, thus, to improve the evaluation of the invariance assumption in the Rasch model. This thesis, thereby, provides a contribution to the construction of objective and fair tests in psychology and educational testing.
697

Regression analysis with imprecise data

Wiencierz, Andrea 13 December 2013 (has links) (PDF)
Statistical methods usually require that the analyzed data are correct and precise observations of the variables of interest. In practice, however, often only incomplete or uncertain information about the quantities of interest is available. The question studied in the present thesis is, how a regression analysis can reasonably be performed when the variables are only imprecisely observed. At first, different approaches to analyzing imprecisely observed variables that were proposed in the Statistics literature are discussed. Then, a new likelihood-based methodology for regression analysis with imprecise data called Likelihood-based Imprecise Regression is introduced. The corresponding methodological framework is very broad and permits accounting for coarsening errors, in contrast to most alternative approaches to analyzing imprecise data. The methodology suggests considering as the result of a regression analysis the entire set of all regression functions that cannot be excluded in the light of the data, which can be interpreted as a confidence set. In the subsequent chapter, a very general regression method is derived from the likelihood-based methodology. This regression method does not impose restrictive assumptions about the form of the imprecise observations, about the underlying probability distribution, and about the shape of the relationship between the variables. Moreover, an exact algorithm is developed for the special case of simple linear regression with interval data and selected statistical properties of this regression method are studied. The proposed regression method turns out to be robust in terms of a high breakdown point and to provide very reliable insights in the sense of a set-valued result with a high coverage probability. In addition, an alternative approach proposed in the literature based on Support Vector Regression is studied in detail and generalized by embedding it into the framework of the formerly introduced likelihood-based methodology. In the end, the discussed regression methods are applied to two practical questions. / Methoden der statistischen Datenanalyse setzen in der Regel voraus, dass die vorhandenen Daten präzise und korrekte Beobachtungen der untersuchten Größen sind. Häufig können aber bei praktischen Studien die interessierenden Werte nur unvollständig oder unscharf beobachtet werden. Die vorliegende Arbeit beschäftigt sich mit der Fragestellung, wie Regressionsanalysen bei unscharfen Daten sinnvoll durchgeführt werden können. Zunächst werden verschiedene Ansätze zum Umgang mit unscharf beobachteten Variablen diskutiert, bevor eine neue Likelihood-basierte Methodologie für Regression mit unscharfen Daten eingeführt wird. Als Ergebnis der Regressionsanalyse wird bei diesem Ansatz keine einzelne Regressionsfunktion angestrebt, sondern die gesamte Menge aller anhand der Daten plausiblen Regressionsfunktionen betrachtet, welche als Konfidenzbereich für den untersuchten Zusammenhang interpretiert werden kann. Im darauffolgenden Kapitel wird im Rahmen dieser Methodologie eine Regressionsmethode entwickelt, die sehr allgemein bezüglich der Form der unscharfen Beobachtungen, der möglichen Verteilungen der Zufallsgrößen sowie der Form des funktionalen Zusammenhangs zwischen den untersuchten Variablen ist. Zudem werden ein exakter Algorithmus für den Spezialfall der linearen Einfachregression mit Intervalldaten entwickelt und einige statistische Eigenschaften der Methode näher untersucht. Dabei stellt sich heraus, dass die entwickelte Regressionsmethode sowohl robust im Sinne eines hohen Bruchpunktes ist, als auch sehr verlässliche Erkenntnisse hervorbringt, was sich in einer hohen Überdeckungswahrscheinlichkeit der Ergebnismenge äußert. Darüber hinaus wird in einem weiteren Kapitel ein in der Literatur vorgeschlagener Alternativansatz ausführlich diskutiert, der auf Support Vector Regression aufbaut. Dieser wird durch Einbettung in den methodologischen Rahmen des vorher eingeführten Likelihood-basierten Ansatzes weiter verallgemeinert. Abschließend werden die behandelten Regressionsmethoden auf zwei praktische Probleme angewandt.
698

Regularity for degenerate elliptic and parabolic systems

Schwarzacher, Sebastian 14 October 2013 (has links) (PDF)
In this work local behavior for solutions to the inhomogeneous p-Laplace in divergence form and its parabolic version are studied. It is parabolic and non-linear generalization of the Calderon-Zygmund theory for the Laplace operator. I.e. the borderline case BMO is studied. The two main results are local BMO and Hoelder estimates for the inhomogenious p-Laplace and the parabolic p-Laplace system. An adaption of some estimates to fluid mechanics, namely on the p-Stokes equation are also proven. The p-Stokes system is a very important physical model for so-called non Newtonian fluids (e.g. blood). For this system BMO and Hoelder estimates are proven in the stationary 2-dimensional case.
699

Differentiability of loeb measures and applications

Aigner, Eva 05 July 2013 (has links) (PDF)
No description available.
700

Experience design in the automotive context

Knobel, Martin 30 October 2013 (has links) (PDF)
Various experiences in modern life are in one or another form connected to car rides. However, the automotive industry so far only regards driving as the only relevant experience, a perspective which consequently dominates the field of interaction design for vehicles. Yet, the car is an exceptionally potential space for experiences that go beyond the actual driving task, such as intensive conversation or exploration. So how is it possible to design for special situations like those, and thereby create positive emotions for drivers and passengers alike? To meet this objective it is necessary to use the human, instead of the function, as the starting point. The design approach of "Experience Design" defined by Marc Hassenzahl provides exactly this focus on the human and concentrates first on their experience. Here, positive emotions are specifically created through the fulfilling of psychological needs. Experience Design enables the precise analysis of experiences in advance of the design by clarifying with the help of psychological needs why a considered experience is viewed as positive. Furthermore, Experience Design supports the composition of an Experience Story, which is attuned to the desired psychological needs and which defines the experience to be designed. This experience can then gradually be translated into an interaction design. Finally, with the help of technology, the created experience can be lived through in situ by participants and later analysed. Based upon this design approach and by means of methods drawn from the fields of human machine-interaction as well as psychology, four studies on the design of experiences through interaction products in the automotive domain are presented. The created experiences are divided into "Experiences at Group Drives in the Car for Pleasure" and "Experiences While Commuting Alone". These experiences take place in different scenarios, namely: in a motorcade, an exploratory cruise, a commuting ride, and while driving considerately. Out of the practical application of Experience Design in these studies a best practice for the use of the employed methods is developed. Thereby, this work brings to light the possibilities for using technology to design experiences that go beyond the mere act of driving. Furthermore, the challenges of designing experiences in usability-focused environments are shown. Thus, this work is aimed at offering inspiration to designers and researchers particularly in the automotive domain for designing experiences and thereby furthering innovation. / Viele unterschiedliche Erlebnisse im Leben sind auf die eine oder andere Weise mit Autofahrten verbunden. Jedoch wird in der Automobilindustrie das Erlebnis im Auto bisher gleichgestellt mit dem Fahrerlebnis selbst, was folglich auch das Interaktionsdesign in Fahrzeugen bestimmt. Dahingegen bietet gerade das Auto Raum für Erlebnisse, die über die eigentliche Fahraufgabe hinausgehen, wie intensive Gespräche oder Entdeckungen. Wie also lassen sich derartige Erlebnisse gestalten, und wie kann dies auf eine Art und Weise geschehen, dass bei FahrerIn als auch Mitfahrenden positive Emotionen ausgelöst werden? Zu diesem Ziel sollte beim Menschen und nicht bei der Technologie angesetzt werden. Der von Marc Hassenzahl aufgestellte Designansatz „Experience Design“ bietet eben diesen Fokus auf den Menschen und konzentriert sich auf das Gestalten von deren Erlebnissen. Hierbei werden durch das Erfüllen psychologischer Bedürfnisse gezielt positive Emotionen erzeugt. Experience Design ermöglicht, Erlebnisse im Vorfeld der Gestaltung genauer zu analysieren, indem anhand psychologischer Bedürfnisse geklärt wird, warum ein betreffende Erlebnis positiv empfunden wird. Weiterhin unterstützt Experience Design das Konzipieren einer Erlebnisgeschichte, welche auf die zu erfüllenden psychologischen Bedürfnisse ausgerichtet ist und das zu gestaltende Erlebnis definiert. Dieses Erlebnis lässt sich dann Schritt für Schritt in ein Interaktionsdesign übertragen. Schließlich kann das gestaltete Erlebnis von StudienteilnehmerInnen mithilfe der Technologie in situ durchlebt und analysiert werden. Aufbauend auf diesem Designansatz und mittels Methoden insbesondere aus den Bereichen Mensch-Maschine-Interaktion sowie Psychologie werden vier Studien der Gestaltung von Erlebnissen durch Interaktionsprodukte im automobilen Bereich vorgestellt. Die gestalteten Erlebnisse lassen sich untergliedern in Erlebnisse bei gemeinsamen Fahrten in unbekannten Gegenden sowie in Erlebnisse beim alleine Fahren auf bekannten Strecken. Sie finden in unterschiedlichen Szenarios statt, nämlich in einer Kolonnenfahrt, einer Entdeckungsreise, einer Pendelfahrt und im rücksichtsvollen Straßenverkehr. Aus der praktischen Anwendung von Experience Design in diesen Designstudien wird eine „Best Practice“ zur Verwendung der benutzten Methoden erstellt. Damit werden in dieser Arbeit Möglichkeiten aufgezeigt, wie über die Fahraufgabe hinausgehende Erlebnisse mithilfe von Technologie gestaltet werden können. Diskutiert werden weiterhin Herausforderungen des Gestaltens von Erlebnissen in Umfeldern, die auf Benutzbarkeit spezialisiert sind. So soll diese Arbeit Designer und Forscher insbesondere im automobilen Bereich dahingehend inspirieren, Erlebnisse zu gestalten und damit neue Wege für Innovationen zu finden.

Page generated in 0.0832 seconds