• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The Processing of Frequency and Duration

Winkler, Isabell 25 May 2009 (has links) (PDF)
Die Häufigkeit und die Dauer, mit der Ereignisse auftreten, sind zwei grundlegende Merkmale des Geschehens in unserer Umwelt. Sie beeinflussen unser Erleben und Verhalten und wirken sich auf Lernprozesse aus. In vielen Situationen müssen wir in der Lage sein, Unterschiede in Auftretenshäufigkeit und –dauer wahrzunehmen, um angemessen zu reagieren und die richtigen Entscheidungen zu treffen. In der vorliegenden Arbeit wird die menschliche Verarbeitung von Häufigkeit und Dauer anhand von Häufigkeits- und Zeitschätzungen untersucht. In bisherigen Untersuchungen wurde bereits festgestellt, dass sich die Wahrnehmungen von Häufigkeit und Dauer unter bestimmten Umständen gegenseitig beeinflussen: So werden Häufigkeiten umso größer geschätzt, je länger die entsprechenden Stimuli dargeboten werden; außerdem wird die Stimulusdauer als umso länger beurteilt, je öfter die Stimuli präsentiert werden. Auf der Basis dieser Befunde wurde vermutet, dass der Verarbeitung von Häufigkeit und Zeit ein gemeinsamer Verarbeitungsmechanismus zugrunde liegt. Tatsächlich wurde dies schon im Rahmen tierexperimenteller Studien bestätigt. Weiterhin gibt es neuropsychologische Befunde, die darauf hindeuten, dass Häufigkeit und Zeit in identischen Hirnstrukturen verarbeitet werden. Allerdings gibt es auch Befunde zur menschlichen Häufigkeits- und Zeitverarbeitung, die die Annahme eines gemeinsamen Verarbeitungsmechanismus in Frage stellt. Diese Studien zeigten eine asymmetrische Beziehung zwischen Häufigkeits- und Zeitschätzungen: Häufigkeitsurteile waren dabei sehr präzise und relativ unbeeinflusst von der Darbietungsdauer, während Zeiturteile wesentlich unpräziser waren und stark von der Stimulushäufigkeit beeinflusst wurden. Die vorliegende Arbeit ist motiviert durch die Annahme, dass es sich bei dem gefundenen asymmetrischen Beziehungsmuster um einen Forschungsartefakt handelt. Die Ursache für das beschriebene Ungleichgewicht zwischen Häufigkeits- und Zeiturteilen ist vermutlich die Tatsache, dass die Verarbeitung von Häufigkeit und Zeit unterschiedlich viel Aufmerksamkeit benötigt. Die Enkodierung von Stimulushäufigkeiten benötigt nur relativ wenig Aufmerksamkeit. Für eine vollständige Enkodierung der Darbietungsdauer ist hingegen wesentlich mehr Aufmerksamkeit nötig, die über die gesamte Präsentationsdauer des jeweiligen Stimulus‘ hinweg aufrecht erhalten werden muss. In den Studien, in denen ein asymmetrischer Zusammenhang gefunden wurde, wurden meist sehr viele Stimuli ohne spezielle Bedeutsamkeit für die Probanden präsentiert (z.B. Wortlisten). Vermutlich wurde deshalb nur wenig Aufmerksamkeit auf die Stimuli gerichtet, so dass zwar die Häufigkeit, nicht jedoch die Darbietungsdauer, vollständig enkodiert wurde. Die gefundene geringe Zeitsensitivität sowie die hohen Sensitivität für Häufigkeiten bestätigen diese Annahme. Ein asymmetrisches Beziehungsmuster ist unter diesen Umständen kaum verwunderlich, da zwar die gut differenzierten Häufigkeitsurteile viel Einfluss auf die kaum hinsichtlich der tatsächlichen Darbietungszeit diskriminierenden Zeiturteile haben können, umgekehrt ist dies jedoch kaum möglich. Diese Annahmen werden im Rahmen von drei Manuskripten überprüft. Im ersten Manuskript wurden die Auswirkungen kognitiver Beanspruchung auf die Häufigkeits- und Zeitverarbeitung untersucht. Die kognitive Beanspruchung wurde hierbei variiert anhand der Anzahl der zu verarbeitenden Stimuli sowie anhand der Aufgabenkomplexität. Eine hohe kognitive Beanspruchung geht dabei mit einer reduzierten Aufmerksamkeit für die einzelnen Stimuli einher. Bei hoher kognitiver Beanspruchung zeigten sich eine niedrige Zeitsensitivität und ein asymmetrisches Beziehungsmuster zwischen Häufigkeits- und Zeiturteilen. Bei geringer kognitiver Beanspruchung hingegen war die Zeitsensitivität höher und die Urteile beeinflussten sich gegenseitig. Im zweiten Manuskript lenkten wir die Aufmerksamkeit der Teilnehmer zum einen durch die Stimulusart (neutrale Worte versus emotionale Bilder) auf die Stimuli, zum anderen durch eine Aufgabe, bei der die Aufmerksamkeit während der gesamten Stimulusdarbietung auf die Stimuli gerichtet werden musste. Dabei zeigte sich die größte Zeitsensitivität, wenn emotionale Bilder gezeigt wurden und zusätzliche Aufmerksamkeit durchgehend auf die Stimuli gerichtet wurde. In dieser Bedingung fand sich zudem die größte gegenseitige Beeinflussung zwischen Häufigkeits- und Zeiturteilen. Im dritten Manuskript untersuchten wir den Effekt der Aufmerksamkeit auf die Häufigkeits- und Zeiturteile in realitätsnäheren experimentellen Settings. In der ersten Studie lenkten wir die Aufmerksamkeit der Probanden während der gesamten Präsentationsdauer auf die Stimuli (durch die Darbietung von Straßenverkehrssimulationen, in denen während der gesamten Präsentationsdauer Bewegung zu sehen war). Die Zeitsensitivität war hierbei hoch und Häufigkeits- und Zeiturteile beeinflussten sich gegenseitig. In der zweiten Studie wurde mittels einer Zweitaufgabe Aufmerksamkeit von den Stimuli abgezogen. Je mehr Aufmerksamkeit von den Stimuli abgelenkt wurde, desto geringer war die Zeitsensitivität und desto kleiner die gegenseitige Beeinflussung der Häufigkeits- und Zeiturteile. Die Befunde deuten allesamt auf einen gemeinsamen Verarbeitungsmechanismus von Häufigkeit und Zeit hin. In der vorliegenden Arbeit wird die Anwendung der gewonnenen Erkenntnisse für Entwicklung eines Erklärungsmodells der menschlichen Häufigkeits- und Zeitverarbeitung diskutiert.
2

The Processing of Frequency and Duration

Winkler, Isabell 13 May 2009 (has links)
Die Häufigkeit und die Dauer, mit der Ereignisse auftreten, sind zwei grundlegende Merkmale des Geschehens in unserer Umwelt. Sie beeinflussen unser Erleben und Verhalten und wirken sich auf Lernprozesse aus. In vielen Situationen müssen wir in der Lage sein, Unterschiede in Auftretenshäufigkeit und –dauer wahrzunehmen, um angemessen zu reagieren und die richtigen Entscheidungen zu treffen. In der vorliegenden Arbeit wird die menschliche Verarbeitung von Häufigkeit und Dauer anhand von Häufigkeits- und Zeitschätzungen untersucht. In bisherigen Untersuchungen wurde bereits festgestellt, dass sich die Wahrnehmungen von Häufigkeit und Dauer unter bestimmten Umständen gegenseitig beeinflussen: So werden Häufigkeiten umso größer geschätzt, je länger die entsprechenden Stimuli dargeboten werden; außerdem wird die Stimulusdauer als umso länger beurteilt, je öfter die Stimuli präsentiert werden. Auf der Basis dieser Befunde wurde vermutet, dass der Verarbeitung von Häufigkeit und Zeit ein gemeinsamer Verarbeitungsmechanismus zugrunde liegt. Tatsächlich wurde dies schon im Rahmen tierexperimenteller Studien bestätigt. Weiterhin gibt es neuropsychologische Befunde, die darauf hindeuten, dass Häufigkeit und Zeit in identischen Hirnstrukturen verarbeitet werden. Allerdings gibt es auch Befunde zur menschlichen Häufigkeits- und Zeitverarbeitung, die die Annahme eines gemeinsamen Verarbeitungsmechanismus in Frage stellt. Diese Studien zeigten eine asymmetrische Beziehung zwischen Häufigkeits- und Zeitschätzungen: Häufigkeitsurteile waren dabei sehr präzise und relativ unbeeinflusst von der Darbietungsdauer, während Zeiturteile wesentlich unpräziser waren und stark von der Stimulushäufigkeit beeinflusst wurden. Die vorliegende Arbeit ist motiviert durch die Annahme, dass es sich bei dem gefundenen asymmetrischen Beziehungsmuster um einen Forschungsartefakt handelt. Die Ursache für das beschriebene Ungleichgewicht zwischen Häufigkeits- und Zeiturteilen ist vermutlich die Tatsache, dass die Verarbeitung von Häufigkeit und Zeit unterschiedlich viel Aufmerksamkeit benötigt. Die Enkodierung von Stimulushäufigkeiten benötigt nur relativ wenig Aufmerksamkeit. Für eine vollständige Enkodierung der Darbietungsdauer ist hingegen wesentlich mehr Aufmerksamkeit nötig, die über die gesamte Präsentationsdauer des jeweiligen Stimulus‘ hinweg aufrecht erhalten werden muss. In den Studien, in denen ein asymmetrischer Zusammenhang gefunden wurde, wurden meist sehr viele Stimuli ohne spezielle Bedeutsamkeit für die Probanden präsentiert (z.B. Wortlisten). Vermutlich wurde deshalb nur wenig Aufmerksamkeit auf die Stimuli gerichtet, so dass zwar die Häufigkeit, nicht jedoch die Darbietungsdauer, vollständig enkodiert wurde. Die gefundene geringe Zeitsensitivität sowie die hohen Sensitivität für Häufigkeiten bestätigen diese Annahme. Ein asymmetrisches Beziehungsmuster ist unter diesen Umständen kaum verwunderlich, da zwar die gut differenzierten Häufigkeitsurteile viel Einfluss auf die kaum hinsichtlich der tatsächlichen Darbietungszeit diskriminierenden Zeiturteile haben können, umgekehrt ist dies jedoch kaum möglich. Diese Annahmen werden im Rahmen von drei Manuskripten überprüft. Im ersten Manuskript wurden die Auswirkungen kognitiver Beanspruchung auf die Häufigkeits- und Zeitverarbeitung untersucht. Die kognitive Beanspruchung wurde hierbei variiert anhand der Anzahl der zu verarbeitenden Stimuli sowie anhand der Aufgabenkomplexität. Eine hohe kognitive Beanspruchung geht dabei mit einer reduzierten Aufmerksamkeit für die einzelnen Stimuli einher. Bei hoher kognitiver Beanspruchung zeigten sich eine niedrige Zeitsensitivität und ein asymmetrisches Beziehungsmuster zwischen Häufigkeits- und Zeiturteilen. Bei geringer kognitiver Beanspruchung hingegen war die Zeitsensitivität höher und die Urteile beeinflussten sich gegenseitig. Im zweiten Manuskript lenkten wir die Aufmerksamkeit der Teilnehmer zum einen durch die Stimulusart (neutrale Worte versus emotionale Bilder) auf die Stimuli, zum anderen durch eine Aufgabe, bei der die Aufmerksamkeit während der gesamten Stimulusdarbietung auf die Stimuli gerichtet werden musste. Dabei zeigte sich die größte Zeitsensitivität, wenn emotionale Bilder gezeigt wurden und zusätzliche Aufmerksamkeit durchgehend auf die Stimuli gerichtet wurde. In dieser Bedingung fand sich zudem die größte gegenseitige Beeinflussung zwischen Häufigkeits- und Zeiturteilen. Im dritten Manuskript untersuchten wir den Effekt der Aufmerksamkeit auf die Häufigkeits- und Zeiturteile in realitätsnäheren experimentellen Settings. In der ersten Studie lenkten wir die Aufmerksamkeit der Probanden während der gesamten Präsentationsdauer auf die Stimuli (durch die Darbietung von Straßenverkehrssimulationen, in denen während der gesamten Präsentationsdauer Bewegung zu sehen war). Die Zeitsensitivität war hierbei hoch und Häufigkeits- und Zeiturteile beeinflussten sich gegenseitig. In der zweiten Studie wurde mittels einer Zweitaufgabe Aufmerksamkeit von den Stimuli abgezogen. Je mehr Aufmerksamkeit von den Stimuli abgelenkt wurde, desto geringer war die Zeitsensitivität und desto kleiner die gegenseitige Beeinflussung der Häufigkeits- und Zeiturteile. Die Befunde deuten allesamt auf einen gemeinsamen Verarbeitungsmechanismus von Häufigkeit und Zeit hin. In der vorliegenden Arbeit wird die Anwendung der gewonnenen Erkenntnisse für Entwicklung eines Erklärungsmodells der menschlichen Häufigkeits- und Zeitverarbeitung diskutiert.
3

Formale Modelle zur Verarbeitung und Schätzung von Auftretenshäufigkeiten

Burkhardt, Markus 18 February 2019 (has links)
Die Verarbeitung von Auftretenshäufigkeiten spielt eine wichtige Rolle in alltäglichen Urteilsprozessen. Die spontane Wahl eines Mittagessens in der Mensa, kann durch die Häufigkeit, mit der bestimmte Mahlzeiten früher gegessen wurden beeinflusst werden (Birch & Marlin, 1982). Für die Erforschung intuitiver Häufigkeitsschätzungen haben sich in der Vergangenheit zwei Forschungsstrategien etabliert. Zum einen die experimentelle Forschung hierbei stehen separate Hypothesen zur Häufigkeitsverarbeitung im Vordergrund. Zum anderen wurden formale Modelle entwickelt, um die Schätzungen von Auftretenshäufigkeiten abzubilden und zu simulieren. Formale Modelle bieten eine algorithmische Beschreibung kognitiver Prozesse, die einige Vorteile gegenüber einzelnen Hypothesen besitzen. Formale Modelle bilden den Prozess der Häufigkeitsschätzung ganzheitlich ab. Dadurch werden verschiedene Teilprozesse wie die Enkodierung, Lernen, Speichern und der Abruf von Informationen integriert und verbunden. Außerdem sind diese Modelle hinsichtlich ihrer Vorhersagen sehr präzise, denn es wird genau definiert, was während der einzelnen Teilprozesse geschieht und auch die Auswirkungen von anderen Einflussvariablen können in das Modell integriert werden. Für die Verarbeitung von Häufigkeiten wurden verschieden Modelle vorgeschlagen. Sedlmeier (1999) entwickelte mit den PASS Modellen neuronale Netzwerke auf Basis des assoziativen Lernens. MINERVA 2 ist ein instanzenbasiertes Modell, in dem jedes Ereignis separat gespeichert wird (Hintzman, 1988). TODAM 2 (Murdock, Smith & Bai, 2001) basiert auf Convolution und REM (Shiffrin & Steyvers, 1997) nutzt die Differentiation um Häufigkeitsverarbeitung zu erklären. Diese Modelle wurden genutzt, um spezifische Vorhersagen für verschiedene Experimente zur Häufigkeitsverarbeitung zu generieren. Dabei wurden die Bedeutung von Aufmerksamkeit, der Einfluss der Größe von Stimuli, die Auswirkung von Vorwissen und der Effekt der Ähnlichkeit von Stimulusmaterial experimentell untersucht. Mit Ausnahme der Größe konnten alle anderen Variablen als Einflussfaktoren bestätigt werden. Die Vorhersagen der PASS Modelle und von MINERVA 2 zeigten die besten Passungen zwischen Modellvorhersagen und empirischen Daten. Abschließend werden Verbesserungsvorschläge für die formalen Modelle und für die Erforschung von Häufigkeitsschätzungen erarbeitet und diskutiert.
4

Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.

Renkewitz, Frank 12 August 2004 (has links) (PDF)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky & Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making. The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins & LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy. In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären. Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins & LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist. In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.
5

Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.

Renkewitz, Frank 22 March 2004 (has links)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky & Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making. The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins & LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy. In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären. Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins & LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist. In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.

Page generated in 0.0437 seconds