Spelling suggestions: "subject:"abschätzung"" "subject:"dieschätzung""
11 |
The role of higher moments in high-frequency data modellingSchmid, Manuel 24 November 2021 (has links)
This thesis studies the role of higher moments, that is moments behind mean and variance, in continuous-time, or diffusion, processes, which are commonly used to model so-called high-frequency data.
Thereby, the first part is devoted to the derivation of closed-form expression of general (un)conditional (co)moment formulas of the famous CIR process’s solution. A byproduct of this derivation will be a novel way of proving that the process’s transition density is a noncentral chi-square distribution and that its steady-state law is a Gamma distribution.
In the second part, we use these moment formulas to derive a near-exact simulation algorithm to the Heston model, in the sense that our algorithm generates pseudo-random numbers that have the same first four moments as the theoretical diffusion process. We will conduct several in-depth Monte Carlo studies to determine which existing simulation algorithm performs best with respect to these higher moments under certain circumstances. We will conduct the same study for the CIR process, which serves as a diffusion for the latent spot variance in the Heston model.
The third part discusses several estimation approaches to the Heston model based on high-frequency data, such as MM, GMM, and (pseudo/quasi) ML. For the GMM approach, we will use the moments derived in the first part as moment conditions. We apply the best methodology to actual high-frequency price series of cryptocurrencies and FIAT stocks to provide benchmark parameter estimates. / Die vorliegende Arbeit untersucht die Rolle von höheren Momenten, also Momente, welche über den Erwartungswert und die Varianz hinausgehen, im Kontext von zeitstetigen Zeitreihenmodellen. Solche Diffusionsprozesse werden häufig genutzt, um sogenannte Hochfrequenzdaten zu beschreiben.
Teil 1 der Arbeit beschäftigt sich mit der Herleitung von allgemeinen und in geschlossener Form verfügbaren Ausdrücken der (un)bedingten (Ko-)Momente der Lösung zum CIR-Prozess. Mittels dieser Formeln wird auf einem alternativen Weg bewiesen, dass die Übergangsdichte dieses Prozesses mithilfe einer nichtzentralen Chi-Quadrat-Verteilung beschrieben werden kann, und dass seine stationäre Verteilung einer Gamma-Verteilung entspricht.
Im zweiten Teil werden die zuvor entwickelten Ausdrücke genutzt, um einen nahezu exakten Simulationsalgorithmus für das Hestonmodell herzuleiten. Dieser Algorithmus ist in dem Sinne nahezu exakt, dass er Pseudo-Zufallszahlen generiert, welche die gleichen ersten vier Momente besitzen, wie der dem Hestonmodell zugrundeliegende Diffusionsprozess. Ferner werden Monte-Carlo-Studien durchgeführt, die ergründen sollen, welche bereits existierenden
Simulationsalgorithmen in Hinblick auf die ersten vier Momente die besten Ergebnisse liefern. Die gleiche Studie wird außerdem für die Simulation des CIR-Prozesses durchgeführt, welcher im Hestonmodell als Diffusion für die latente, instantane Varianz dient.
Im dritten Teil werden mehrere Schätzverfahren für das Hestonmodell, wie das MM-, GMM und pseudo- beziehungsweise quasi-ML-Verfahren, diskutiert. Diese werden unter Benutzung von Hochfrequenzdaten studiert. Für das GMM-Verfahren dienen die hergeleiteten Momente aus dem ersten Teil der Arbeit als Momentebedingungen. Um ferner Schätzwerte für das Hestonmodell zu finden, werden die besten Verfahren auf Hochfrequenzmarktdaten von Kryptowährungen, sowie hochliquider Aktientitel angewandt. Diese sollen zukünftig als Orientierungswerte dienen.
|
12 |
The robustness of the hierarchical a posteriori error estimator for reaction-diffusion equation on anisotropic meshesGrosman, Serguei 01 September 2006 (has links)
Singularly perturbed reaction-diffusion problems
exhibit in general solutions with anisotropic
features, e.g. strong boundary and/or interior
layers. This anisotropy is reflected in the
discretization by using meshes with anisotropic
elements. The quality of the numerical solution
rests on the robustness of the a posteriori error
estimator with respect to both the perturbation
parameters of the problem and the anisotropy of the
mesh. The simplest local error estimator from the
implementation point of view is the so-called
hierarchical error estimator. The reliability
proof is usually based on two prerequisites:
the saturation assumption and the strengthened
Cauchy-Schwarz inequality. The proofs of these
facts are extended in the present work for the
case of the singularly perturbed reaction-diffusion
equation and of the meshes with anisotropic elements.
It is shown that the constants in the corresponding
estimates do neither depend on the aspect ratio
of the elements, nor on the perturbation parameters.
Utilizing the above arguments the concluding
reliability proof is provided as well as the
efficiency proof of the estimator, both
independent of the aspect ratio and perturbation
parameters.
|
13 |
Geodätische Fehlerrechnung mit der skalenkontaminierten NormalverteilungLehmann, Rüdiger January 2012 (has links)
Geodätische Messabweichungen werden oft gut durch Wahrscheinlichkeitsverteilungen beschrieben, die steilgipfliger als die Gaußsche Normalverteilung sind. Das gilt besonders, wenn grobe Messabweichungen nicht völlig ausgeschlossen werden können. Neben einigen in der Geodäsie bisher verwendeten Verteilungen (verallgemeinerte Normalverteilung, Hubers Verteilung) diskutieren wir hier die skalenkontaminierte Normalverteilung, die für die praktische Rechnung einige Vorteile bietet. / Geodetic measurement errors are frequently well described by probability distributions, which are more peak-shaped than the Gaussian normal distribution. This is especially true when gross errors cannot be excluded. Besides some distributions used so far in geodesy (generalized normal distribution, Huber’s distribution) we discuss the scale contaminated normal distribution, which offers some advantages in practical calculations.
|
14 |
A Stochastic Programming Method for OD Estimation Using LBSN Check-in DataLu, Qing-Long, Qurashi, Moeid, Antoniou, Constantinos 23 June 2023 (has links)
Dynamic OD estimators based on traffic measurements inevitably encounter the indeterminateness problem on the posterior OD flows as such systems structurally have more unknowns than constraints. To resolve this problem and take advantage of the emerging urban mobility data, the paper proposes a dynamic OD estimator based on location-based social networking (LBSN) data, leveraging the two-stage stochastic programming framework, under the assumption that similar check-in patterns are generated by the same OD pattern. The search space of the OD flows will be limited by integrating a batch of realizations/scenarios of the second-stage problem state (i.e. check-in pattern) in the model. The two-stage stochastic programming model decomposes in a master problem and a set of subproblems (one per scenario) via the Benders decomposition algorithm, which will be tackled alternately. The preliminary results from experiments conducted with the Foursquare data of Tokyo, Japan, show that the proposed OD estimator can effectively recurrent the check-in patterns and result in a good posterior OD estimate.
|
15 |
Context-Aware Parameter Estimation for Forecast Models in the Energy DomainDannecker, Lars, Schulze, Robert, Böhm, Matthias, Lehner, Wolfgang, Hackenbroich, Gregor 25 January 2023 (has links)
Continuous balancing of energy demand and supply is a fundamental prerequisite for the stability and efficiency of energy grids. This balancing task requires accurate forecasts of future electricity consumption and production at any point in time. For this purpose, database systems need to be able to rapidly process forecasting queries and to provide accurate results in short time frames. However, time series from the electricity domain pose the challenge that measurements are constantly appended to the time series. Using a naive maintenance approach for such evolving time series would mean a re-estimation of the employed mathematical forecast model from scratch for each new measurement, which is very time consuming. We speed-up the forecast model maintenance by exploiting the particularities of electricity time series to reuse previously employed forecast models and their parameter combinations. These parameter combinations and information about the context in which they were valid are stored in a repository. We compare the current context with contexts from the repository to retrieve parameter combinations that were valid in similar contexts as starting points for further optimization. An evaluation shows that our approach improves the maintenance process especially for complex models by providing more accurate forecasts in less time than comparable estimation methods.
|
16 |
Forcasting Evolving Time Series of Energy Demand and SupplyDannecker, Lars, Böhm, Matthias, Lehner, Wolfgang, Hackenbroich, Gregor 26 January 2023 (has links)
Real-time balancing of energy demand and supply requires accurate and efficient forecasting in order to take future consumption and production into account. These balancing capabilities are reasoned by emerging energy market developments, which also pose new challenges to forecasting in the energy domain not addressed so far: First, real-time balancing requires accurate forecasts at any point in time. Second, the hierarchical market organization motivates forecasting in a distributed system environment. In this paper, we present an approach that adapts forecasting to the hierarchical organization of today’s energy markets. Furthermore, we introduce a forecasting framework, which allows efficient forecasting and forecast model maintenance of time series that evolve due to continuous streams of measurements. This framework includes model evaluation and adaptation techniques that enhance the model maintenance process by exploiting context knowledge from previous model adaptations. With this approach (1) more accurate forecasts can be produced within the same time budget, or (2) forecasts with similar accuracy can be produced in less time.
|
17 |
Into space: Statistical inference for stochastic partial differential equations using spatial informationGaudlitz, Sascha Robert 22 January 2025 (has links)
Diese Arbeit trägt zum Gebiet der Statistik für semi-lineare stochastische partielle Differentialgleichungen (SPDEs) bei. Die Diffusivität und die Stärke des Rauschens sind bekannt, aber die Reaktionsfunktion ist unbekannt und soll basierend auf einer Beobachtung der SPDE geschätzt werden. Da eine Beobachtung der SPDE im Allgemeinen nicht genügend Informationen für die Identifizierung der Reaktionsfunktion enthält, wird analysiert, wie der Informationsgehalt der räumlichen Schnitte über die Reaktionsfunktion erhöht werden kann. Sowohl parametrische als auch nicht-parametrische Methoden zur Schätzung der Reaktionsfunktion werden hergeleitet und analysiert. Die statistische Analyse erfordert das Verständnis der raumzeitlichen Mittelwerte von Transformationen der SPDE. Durch die Nutzung der Clark-Ocone-Formel und der Poincaré-Ungleichung werden neue Konzentrationsresultate, bis hin zu subgaußscher Konzentration, für semi-lineare SPDEs ermöglicht. / This thesis contributes to the field of statistical inference for stochastic semi-linear partial differential equations (SPDEs). The diffusivity and the noise level are known constants, whereas the reaction function is unknown and shall be estimated based on one observation of the SPDE. Since one observation of the SPDE does generally not carry sufficient information to identify the reaction function, it is analysed how to increase the information about the reaction function in the spatial sections of the SPDE. Both parametric and non-parametric estimation methods for the reaction function are derived and analysed. The statistical analysis requires the control of spatio-temporal averages of transformations of the SPDE. By using the Clark-Ocone formula und the Poincaré-inequality, novel concentration tools for semi-linear SPDEs are proven. These range from variance bounds to subgaussian concentration for the spatio-temporal and spatial averages.
|
18 |
Conditional limit theorems for multitype branching processes and illustration in epidemiological risk analysisPénisson, Sophie January 2010 (has links)
This thesis is concerned with the issue of extinction of populations composed of different types of individuals, and their behavior before extinction and in case of a very late extinction. We approach this question firstly from a strictly probabilistic viewpoint, and secondly from the standpoint of risk analysis related to the extinction of a particular model of population dynamics. In this context we propose several statistical tools.
The population size is modeled by a branching process, which is either a continuous-time multitype Bienaymé-Galton-Watson process (BGWc), or its continuous-state counterpart, the multitype Feller diffusion process. We are interested in different kinds of conditioning on non-extinction, and in the associated equilibrium states. These ways of conditioning have been widely studied in the monotype case. However the literature on multitype processes is much less extensive, and there is no systematic work establishing connections between the results for BGWc processes and those for Feller diffusion processes.
In the first part of this thesis, we investigate the behavior of the population before its extinction by conditioning the associated branching process X_t on non-extinction (X_t≠0), or more generally on non-extinction in a near future 0≤θ<∞ (X_{t+θ}≠0), and by letting t tend to infinity. We prove the result, new in the multitype framework and for θ>0, that this limit exists and is non-degenerate. This reflects a stationary behavior for the dynamics of the population conditioned on non-extinction, and provides a generalization of the so-called Yaglom limit, corresponding to the case θ=0. In a second step we study the behavior of the population in case of a very late extinction, obtained as the limit when θ tends to infinity of the process conditioned by X_{t+θ}≠0. The resulting conditioned process is a known object in the monotype case (sometimes referred to as Q-process), and has also been studied when X_t is a multitype Feller diffusion process. We investigate the not yet considered case where X_t is a multitype BGWc process and prove the existence of the associated Q-process. In addition, we examine its properties, including the asymptotic ones, and propose several interpretations of the process. Finally, we are interested in interchanging the limits in t and θ, as well as in the not yet studied commutativity of these limits with respect to the high-density-type relationship between BGWc processes and Feller processes. We prove an original and exhaustive list of all possible exchanges of limit (long-time limit in t, increasing delay of extinction θ, diffusion limit).
The second part of this work is devoted to the risk analysis related both to the extinction of a population and to its very late extinction. We consider a branching population model (arising notably in the epidemiological context) for which a parameter related to the first moments of the offspring distribution is unknown. We build several estimators adapted to different stages of evolution of the population (phase growth, decay phase, and decay phase when extinction is expected very late), and prove moreover their asymptotic properties (consistency, normality). In particular, we build a least squares estimator adapted to the Q-process, allowing a prediction of the population development in the case of a very late extinction. This would correspond to the best or to the worst-case scenario, depending on whether the population is threatened or invasive. These tools enable us to study the extinction phase of the Bovine Spongiform Encephalopathy epidemic in Great Britain, for which we estimate the infection parameter corresponding to a possible source of horizontal infection persisting after the removal in 1988 of the major route of infection (meat and bone meal). This allows us to predict the evolution of the spread of the disease, including the year of extinction, the number of future cases and the number of infected animals. In particular, we produce a very fine analysis of the evolution of the epidemic in the unlikely event of a very late extinction. / Diese Arbeit befasst sich mit der Frage des Aussterbens von Populationen verschiedener Typen von Individuen. Uns interessiert das Verhalten vor dem Aussterben sowie insbesondere im Falle eines sehr späten Aussterbens. Wir untersuchen diese Fragestellung zum einen von einer rein wahrscheinlichkeitstheoretischen Sicht und zum anderen vom Standpunkt der Risikoanalyse aus, welche im Zusammenhang mit dem Aussterben eines bestimmten Modells der Populationsdynamik steht. In diesem Kontext schlagen wir mehrere statistische Werkzeuge vor.
Die Populationsgröße wird entweder durch einen zeitkontinuierlichen mehrtyp-Bienaymé-Galton-Watson Verzweigungsprozess (BGWc) oder durch sein Analogon mit kontinuierlichem Zustandsraum, den Feller Diffusionsprozess, modelliert. Wir interessieren uns für die unterschiedlichen Arten auf Überleben zu bedingen sowie für die hierbei auftretenden Gleichgewichtszustände. Diese Bedingungen wurden bereits weitreichend im Falle eines einzelnen Typen studiert. Im Kontext von mehrtyp-Verzweigungsprozessen hingegen ist die Literatur weniger umfangreich und es gibt keine systematischen Arbeiten, welche die Ergebnisse von BGWc Prozessen mit denen der Feller Diffusionsprozesse verbinden. Wir versuchen hiermit diese Lücke zu schliessen.
Im ersten Teil dieser Arbeit untersuchen wir das Verhalten von Populationen vor ihrem Aussterben, indem wir das zeitasymptotysche Verhalten des auf Überleben bedingten zugehörigen Verzweigungsprozesses (X_t|X_t≠0)_t betrachten (oder allgemeiner auf Überleben in naher Zukunft 0≤θ<∞, (X_t|X_{t+θ}≠0)_t). Wir beweisen das Ergebnis, neuartig im mehrtypen Rahmen und für θ>0, dass dieser Grenzwert existiert und nicht-degeneriert ist. Dies spiegelt ein stationäres Verhalten für auf Überleben bedingte Bevölkerungsdynamiken wider und liefert eine Verallgemeinerung des sogenannten Yaglom Grenzwertes (welcher dem Fall θ=0 entspricht). In einem zweiten Schritt studieren wir das Verhalten der Populationen im Falle eines sehr späten Aussterbens, welches wir durch den Grenzübergang auf θ→∞ erhalten. Der resultierende Grenzwertprozess ist ein bekanntes Objekt im eintypen Fall (oftmals als Q-Prozess bezeichnet) und wurde ebenfalls im Fall von mehrtyp-Feller-Diffusionsprozessen studiert. Wir untersuchen den bisher nicht betrachteten Fall, in dem X_t ein mehrtyp-BGWc Prozess ist und beweisen die Existenz des zugehörigen Q-Prozesses. Darüber hinaus untersuchen wir seine Eigenschaften einschließlich der asymptotischen und weisen auf mehrere Auslegungen hin. Schließlich interessieren wir uns für die Austauschbarkeit der Grenzwerte in t und θ, und die Vertauschbarkeit dieser Grenzwerte in Bezug auf die Beziehung zwischen BGWc und Feller Prozessen. Wir beweisen die Durchführbarkeit aller möglichen Grenzwertvertauschungen (Langzeitverhalten, wachsende Aussterbeverzögerung, Diffusionslimit).
Der zweite Teil dieser Arbeit ist der Risikoanalyse in Bezug auf das Aussterben und das sehr späte Aussterben von Populationen gewidmet. Wir untersuchen ein Modell einer verzweigten Bevölkerung (welches vor allem im epidemiologischen Rahmen erscheint), für welche ein Parameter der Reproduktionsverteilung unbekannt ist. Wir konstruieren Schätzer, die an die jeweiligen Stufen der Evolution adaptiert sind (Wachstumsphase, Verfallphase sowie die Verfallphase, wenn das Aussterben sehr spät erwartet wird), und beweisen zudem deren asymptotische Eigenschaften (Konsistenz, Normalverteiltheit). Im Besonderen bauen wir einen für Q-Prozesse adaptierten kleinste-Quadrate-Schätzer, der eine Vorhersage der Bevölkerungsentwicklung im Fall eines sehr späten Aussterbens erlaubt. Dies entspricht dem Best- oder Worst-Case-Szenario, abhängig davon, ob die Bevölkerung bedroht oder invasiv ist. Diese Instrumente ermöglichen uns die Betrachtung der Aussterbensphase der Bovinen spongiformen Enzephalopathie Epidemie in Großbritannien. Wir schätzen den Infektionsparameter in Bezug auf mögliche bestehende Quellen der horizontalen Infektion nach der Beseitigung des primären Infektionsweges (Tiermehl) im Jahr 1988. Dies ermöglicht uns eine Vorhersage des Verlaufes der Krankheit inklusive des Jahres des Aussterbens, der Anzahl von zukünftigen Fällen sowie der Anzahl infizierter Tiere. Insbesondere ermöglicht es uns die Erstellung einer sehr detaillierten Analyse des Epidemieverlaufs im unwahrscheinlichen Fall eines sehr späten Aussterbens.
|
19 |
Simultanes Routen- und VerkehrsmittelwahlmodellVrtic, Milenko 18 April 2004 (has links) (PDF)
Bei verkehrspolitischen und infrastrukturellen Massnahmen folgen als wesentliche Nachfrageveränderungen vor allem Routen- und Verkehrsmittelwahleffekte. Mit der Anwendung der sequentiellen Routen- und Verkehrsmittelwahlmodelle, ist bei solchen Massnahmen aus verschiedenen Gründen eine konsistente und gesamthafte Gleichgewichtslösung nicht möglich. Das Ziel dieser Untersuchung war, ein konsistentes und verfeinertes Verfahren zu entwickeln, mit dem die Routen- und Verkehrsmittelwahl simultan bzw. in einem Schritt als eine Entscheidung berechnet werden kann. Neben dem Gleichgewicht bei der Verteilung der Verkehrsnachfrage auf die Alternativen, war die konsistente Schätzung der Modellparameter für die Bewertung von Einflussfaktoren bei den Entscheidungen hier eine weitere wichtige Anforderung. Das Modell ist in der Lage, ein realitätsentsprechendes Verhalten der Verkehrsteilnehmer, sowohl bei schwach, als auch bei stark belasteten Strassennetzen, zu beschreiben. Die unterschiedliche Wahrnehmung der Reisekosten der Verkehrsteilnehmer und die Netzüberbelastungen werden durch ein stochastisches Nutzergleichgewicht abgebildet. Das entwickelte Verfahren ermöglicht es: - die Nachfrageaufteilung mit einem konsistenten Gleichgewicht zwischen Verkehrsangebot und Verkehrsnachfrage zu berechnen. Dabei wird ein Gleichgewicht nicht nur innerhalb des Strassen- oder Schienennetzes, sondern zwischen allen verfügbaren Alternativen (unabhängig vom Verkehrsmittel) gesucht. - durch die iterative Kalibration der Modellparameter und die Nachfrageaufteilung ein konsistentes Gleichgewicht zwischen den geschätzten Modellparametern für die Nutzenfunktion und der Nachfrageaufteilung auf die vorhandenen Alternativen (Routen) zu berechnen. - mit einem stochastischen Nutzergleichgwicht die unterschiedliche Wahrnehmung der Nutzen bzw. der generalisierten Kosten der Verkehrsteilnehmer bei der Nachfrageaufteilung zu berücksichtigen. - die Auswirkungen von Angebotsveränderungen auf die Verkehrsmittelwahl und Routenwahl durch simultane Modellierung der Entscheidungen konsistent und ohne Rückkoppelungschritte zu berechnen.
|
20 |
Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.Renkewitz, Frank 12 August 2004 (has links) (PDF)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky & Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making.
The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins & LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy.
In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären.
Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins & LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist.
In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.
|
Page generated in 0.0275 seconds