• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 982
  • 352
  • 191
  • 2
  • 2
  • Tagged with
  • 1494
  • 1494
  • 618
  • 607
  • 607
  • 389
  • 176
  • 123
  • 113
  • 99
  • 92
  • 86
  • 85
  • 77
  • 76
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Feedback efficiency and training effects during alpha band modulation over the sensorimotor cortex / Die Wirksamkeit von Feedback und Trainingseffekten während der Alphaband Modulation über dem menschlichen sensomotorischen Cortex

Sollfrank, Teresa January 2015 (has links) (PDF)
Neural oscillations can be measured by electroencephalography (EEG) and these oscillations can be characterized by their frequency, amplitude and phase. The mechanistic properties of neural oscillations and their synchronization are able to explain various aspects of many cognitive functions such as motor control, memory, attention, information transfer across brain regions, segmentation of the sensory input and perception (Arnal and Giraud, 2012). The alpha band frequency is the dominant oscillation in the human brain. This oscillatory activity is found in the scalp EEG at frequencies around 8-13 Hz in all healthy adults (Makeig et al., 2002) and considerable interest has been generated in exploring EEG alpha oscillations with regard to their role in cognitive (Klimesch et al., 1993; Hanselmayr et al., 2005), sensorimotor (Birbaumer, 2006; Sauseng et al., 2009) and physiological (Lehmann, 1971; Niedermeyer, 1997; Kiyatkin, 2010) aspects of human life. The ability to voluntarily regulate the alpha amplitude can be learned with neurofeedback training and offers the possibility to control a brain-computer interface (BCI), a muscle independent interaction channel. BCI research is predominantly focused on the signal processing, the classification and the algorithms necessary to translate brain signals into control commands than on the person interacting with the technical system. The end-user must be properly trained to be able to successfully use the BCI and factors such as task instructions, training, and especially feedback can therefore play an important role in learning to control a BCI (Neumann and Kübler, 2003; Pfurtscheller et al., 2006, 2007; Allison and Neuper, 2010; Friedrich et al., 2012; Kaufmann et al., 2013; Lotte et al., 2013). The main purpose of this thesis was to investigate how end-users can efficiently be trained to perform alpha band modulation recorded over their sensorimotor cortex. The herein presented work comprises three studies with healthy participants and participants with schizophrenia focusing on the effects of feedback and training time on cortical activation patterns and performance. In the first study, the application of a realistic visual feedback to support end-users in developing a concrete feeling of kinesthetic motor imagery was tested in 2D and 3D visualization modality during a single training session. Participants were able to elicit the typical event-related desynchronisation responses over sensorimotor cortex in both conditions but the most significant decrease in the alpha band power was obtained following the three-dimensional realistic visualization. The second study strengthen the hypothesis that an enriched visual feedback with information about the quality of the input signal supports an easier approach for motor imagery based BCI control and can help to enhance performance. Significantly better performance levels were measurable during five online training sessions in the groups with enriched feedback as compared to a conventional simple visual feedback group, without significant differences in performance between the unimodal (visual) and multimodal (auditory–visual) feedback modality. Furthermore, the last study, in which people with schizophrenia participated in multiple sessions with simple feedback, demonstrated that these patients can learn to voluntarily regulate their alpha band. Compared to the healthy group they required longer training times and could not achieve performance levels as high as the control group. Nonetheless, alpha neurofeedback training lead to a constant increase of the alpha resting power across all 20 training session. To date only little is known about the effects of feedback and training time on BCI performance and cortical activation patterns. The presented work contributes to the evidence that healthy individuals can benefit from enriched feedback: A realistic presentation can support participants in getting a concrete feeling of motor imagery and enriched feedback, which instructs participants about the quality of their input signal can give support while learning to control the BCI. This thesis demonstrates that people with schizophrenia can learn to gain control of their alpha oscillations recorded over the sensorimotor cortex when participating in sufficient training sessions. In conclusion, this thesis improved current motor imagery BCI feedback protocols and enhanced our understanding of the interplay between feedback and BCI performance. / Die Wirksamkeit von Feedback und Trainingseffekten während der Alphaband Modulation über dem menschlichen sensomotorischen Cortex
132

Metacognition and Disfluency – The Effects of Disfluency on Monitoring and Performance / Metakognition und Disfluency - Der Einfluss von Disfluency auf die Überwachung des Lernprozesses und auf die Leistung

Pieger, Elisabeth January 2017 (has links) (PDF)
In this thesis, metacognition research is connected with fluency research. Thereby, the focus lies on how disfluency can be used to improve metacognitive monitoring (i.e., students` judgments during the learning process). Improving metacognitive monitoring is important in educational contexts in order to foster performance. Theories about metacognition and self-regulated learning suppose that monitoring affects control and performance. Accurate monitoring is necessary to initiate adequate control and better performance. However, previous research shows that students are often not able to accurately monitor their learning with meaningful text material. Inaccurate monitoring can result in inadequate control and low performance. One reason for inaccurate monitoring is that students use cues for their judgments that are not valid predictors of their performance. Because fluency might be such a cue, the first aim of this thesis is to investigate under which conditions fluency is used as a cue for judgments during the learning process. A fluent text is easy to process and, hence, it should be judged as easy to learn and as easy to remember. Inversely, a disfluent text is difficult to process, for example because of a disfluent font type (e.g., Mistral) or because of deleted letters (e.g., l_tt_rs). Hence, a disfluent text should be judged as difficult to learn and as difficult to remember. This assumption is confirmed when students learn with both fluent and disfluent material. When fluency is manipulated between persons, fluency seems to be less obvious as a cue for judgments. However, there are only a few studies that investigated the effects of fluency on judgments when fluency is manipulated between persons. Results from Experiment 1 (using deleted letters for disfluent text) and from Experiment 4 (using Mistral for disfluent text) in this thesis support the assumption that fluency is used as a cue for judgments in between-person designs. Thereby, however, the interplay with the type of judgment and the learning stage seems to matter. Another condition when fluency affects judgments was investigated in Experiment 2 and 3. The aim of these experiments was to investigate if disfluency leads to analytic monitoring and if analytic monitoring sustains for succeeding fluent material. If disfluency activates analytic monitoring that remains for succeeding fluent material, fluency should no longer be used as a cue for judgments. Results widely support this assumption for deleted letters (Experiment 2) as well as for the font type Mistral (Experiment 3). Thereby, again the interplay between the type of judgment and the learning stage matters. Besides the investigation of conditions when fluency is used as a cue for different types of judgments during the learning process, another aim of this thesis is to investigate if disfluency leads to accurate monitoring. Results from Experiment 3 and 4 support the assumption that Mistral can reduce overconfidence. This is the case when fluency is manipulated between persons or when students first learn with a fluent and then with a disfluent text. Dependent from the type of judgment and the learning stage, disfluency can lead even to underconfidence or to improved relative monitoring accuracy (Experiment 4). Improving monitoring accuracy is only useful when monitoring is implemented into better control and better performance. The effect of monitoring accuracy on control and performance was in the focus of Experiment 4. Results show that accurate monitoring does not result in improved control and performance. Thus, further research is required to develop interventions that do not only improve monitoring accuracy but that also help students to implement accurate monitoring into better control and performance. Summing up, the aim of this thesis is to investigate under which conditions fluency is used as a cue for judgments during the learning process, how disfluency can be used to improve monitoring accuracy, and if improved monitoring accuracy leads to improved performance. By connecting metacognition research and fluency research, further theories about metacognition and theories about fluency are specified. Results show that not only the type of fluency and the design, but also the type of judgment, the type of monitoring accuracy, and the learning stage should be taken into account. Understanding conditions that affect the interplay between metacognitive processes and performance as well as understanding the underlying mechanisms is necessary to enable systematic research and to apply findings into educational settings. / Ziel dieser Dissertation ist es, den Einfluss von Disfluency auf metakognitive Einschätzungen sowie deren Genauigkeit und deren Einfluss auf die Leistung zu untersuchen. Dabei wird die Metakognitions- mit der Fluency-Forschung verbunden. Theorien der Metakognition und des Selbstregulierten Lernens postulieren, dass metakognitive Einschätzungen den Lernprozess sowie die Leistung beeinflussen. Genaue Einschätzungen der eigenen Leistung sind notwendig, um adäquate Lernprozesse zu initiieren und die Leistung zu verbessern. In der bisherigen Forschung zeigte sich allerdings, dass Personen ihre eigene Leistung häufig falsch einschätzen, v. a. beim Lernen mit Texten. Als Folge ungenauer Einschätzungen können dysfunktionale Lernprozesse sowie schlechtere Leistung resultieren. Ein möglicher Grund für ungenaue Einschätzungen ist die Verwendung von Cues (Hinweisreizen), die keine validen Prädiktoren für die Leistung sind. Ein solcher Cue könnte Fluency sein. Fluente Texte sind leicht zu verarbeiten und sollten deshalb auch als leicht zu lernen und als leicht zu erinnern eingeschätzt werden. Umgekehrt sollten Texte, deren Verarbeitungsflüssigkeit beispielsweise durch eine disfluente Schriftart (z. B. Mistral) oder durch Löschung von Buchstaben (z. B. B_chst_b_n) herabgesetzt ist, als schwerer zu lernen und zu erinnern eingeschätzt werden. Diese Annahme wurde bisher v. a. dann bestätigt, wenn Personen sowohl mit fluentem als auch disfluentem Material lernen. Wird Fluency zwischen Personen manipuliert, scheint Fluency ein weniger offensichtlicher Cue zu sein. Allerdings ist die Anzahl an Studien, die Fluency zwischen Personen manipuliert haben, begrenzt. In dieser Dissertation wurde sowohl in Experiment 1 für die Löschung von Buchstaben, als auch in Experiment 4 für die Schriftart Mistral bestätigt, dass auch eine Manipulation zwischen Personen Einschätzungen beeinflussen kann, wobei jeweils die Interaktion mit der Art der Einschätzung und dem Zeitpunkt im Lernprozess berücksichtigt werden müssen. Eine weitere Bedingung, unter der Fluency die Einschätzungen beeinflusst, wurde in Experiment 2 und 3 untersucht. Ziel dieser Experimente war es u. a. herauszufinden, ob Disfluency zu einer analytischeren Überwachung des eigenen Lernprozesses führt und ob diese auch für nachfolgendes fluentes Material anhält. Als Folge analytischer Überwachungsprozesse für disfluentes und fluentes Material sollte Fluency nicht länger als Cue für Einschätzungen verwendet werden. Die Ergebnisse bestätigen dies weitgehend sowohl für die Löschung von Buchstaben (Experiment 2) als auch für die Verwendung der Schriftart Mistral (Experiment 3). Auch hier gibt es allerdings Interaktionen mit der Art der Einschätzung und dem Zeitpunkt im Lernprozess. Neben der Untersuchung, unter welchen der genannten Bedingungen Fluency Effekte auf verschiedene Arten von Einschätzungen im Lernprozess gefunden werden, ist es ein weiteres Ziel dieser Dissertation zu untersuchen, ob Disfluency durch die Initiierung analytischer Überwachungsprozesse auch zu genaueren Einschätzungen führt. Die Befunde aus Experiment 3 und 4 zeigen, dass Mistral die oft gefundene Überschätzung reduziert, wenn die Fluency zwischen Personen manipuliert wird oder zuerst mit fluentem und anschließend mit disfluentem Text gelernt wird. Abhängig von der Art der Einschätzung und des Zeitpunkts im Lernprozess kann Mistral sogar zu Unterschätzung führen und auch die relative Genauigkeit verbessern (Experiment 4). Eine Verbesserung der Genauigkeit von Einschätzungen ist v. a. dann sinnvoll, wenn genauere Einschätzungen auch zu besseren Lernprozessen und zu besserer Leistung führen. Dies wurde in Experiment 4 untersucht. Hier zeigte sich allerdings, dass genauere Einschätzungen nicht zu einer besseren Leistung führen. Deshalb sollten in der weiteren Forschung Interventionen entwickelt werden, die nicht nur die Genauigkeit von Einschätzungen, sondern auch deren Transfer in bessere Lernprozesse und in bessere Leistung fördern. Insgesamt ist es also das Ziel dieser Dissertation zu untersuchen, wann Disfluency verschiedene Einschätzungen im Lernprozess beeinflusst, ob Disfluency zu analytischeren und genaueren Einschätzungen führt, und ob genauere Einschätzungen letztendlich in besserer Leistung resultieren. Die Verbindung der Metakognitions- mit der Fluency-Forschung ermöglicht dabei, nicht nur Theorien zur Metakognition sondern auch zur Fluency zu spezifizieren. Wie die Befunde zeigen, müssen nicht nur verschiedene Arten der Fluency und des Designs, sondern auch verschiedene Arten von Einschätzungen und deren Genauigkeit, sowie der Zeitpunkt der Einschätzung im Lernprozess berücksichtigt werden. Die Kenntnis von Zusammenhängen und Bedingungen sowie von zugrundeliegenden Mechanismen ist wichtig, um bisherige inkonsistente Befunde systematisieren zu können und schließlich lernförderliche Interventionen ableiten zu können.
133

Motivationsentwicklung in Begabtenförderprogrammen

Molitor, Sabine January 2012 (has links) (PDF)
Ziel der vorliegenden Arbeit ist es, herauszufinden, wie sich die Motivation bei Schülerinnen und Schülern in speziellen homogenen Begabtenklassen verglichen mit regulären Schulklassen entwickelt. Dazu wurden im Rahmen des „Projekts zur Untersuchung des Lernens in der Sekundarstufe“ (PULSS-Projekt) zu vier Messzeitpunkten die Leistungs- und Lernzielorientierung sowie die intrinsische Motivation in Mathematik und Deutsch erfasst. Der Untersuchungszeitraum erstreckte sich vom Beginn der 5. Jahrgangsstufe bis zum Ende der 7. Klasse. Um eine größtmögliche Vergleichbarkeit der Begabten- und der Regelklässler zu gewährleisten, wurden die Stichproben anhand entscheidender Merkmale parallelisiert (Schule, Geschlecht, IQ, sozioökonomischer Status). Die statistische Auswertung bestätigte den Rückgang der Motivation aller Schülerinnen und Schüler über die vier Messzeitpunkte hinweg. Darüber hinaus zeigten sich keine bedeutsamen Unterschiede zwischen den beiden Klassentypen. Differenzierte man in den einzelnen Klassen nach Schülerinnen und Schülern unterschiedlicher Begabung, so zeigte sich, dass die Ausprägung der Intelligenz keinen Einfluss auf die Höhe der Motivation nimmt. Beim akademischen Selbstkonzept verhält es sich teilweise anders. Wurde neben dem Klassentyp zwischen Schülerinnen und Schülern mit hohem und solchen mit niedrigem akademischen Selbstkonzept unterschieden, so war bei einigen Kennwerten die Höhe der Motivation in den Begabtenklassen stärker vom Selbstkonzept beeinflusst als in den Regelklassen. Dies äußerte sich dahingehend, dass die Begabtenklässler mit hohem akademischem Selbstkonzept verhältnismäßig stark motiviert waren, wohingegen die Begabtenklässler mit niedrigem akademischem Selbstkonzept die geringste Motivation zeigten. Eine abschließende Bewertung dieser Entwicklung kann aufgrund der in vorliegender Arbeit gefundenen Ergebnisse jedoch nicht vorgenommen werden. Insgesamt konnte die Befürchtung eines ungünstigeren Entwicklungsverlaufs in begabungshomogenen Klassen widerlegt werden. Das Ausmaß, inwieweit einzelne Schülerinnen und Schüler von der Beschulung in Begabtenklassen profitieren, scheint hinsichtlich der motivationalen Entwicklung nicht so sehr von der Intelligenz, sondern vielmehr von nicht-kognitiven Persönlichkeitsfaktoren abzuhängen. So legen die Resultate nahe, die Ausprägung des akademischen Selbstkonzepts bei Auswahlverfahren stärker zu berücksichtigen.
134

The Role of Source Credibility in the Validation of Text Information / Die Rolle der Quellenglaubwürdigkeit bei der Validierung von Textinformationen

Wertgen, Andreas Gabriel January 2022 (has links) (PDF)
Numerous experiments have shown that an evaluative and passive process, known as validation, accompanies activation and integration, which are fundamental processes of text comprehension. During the construction of a mental model, validation implicitly assesses the plausibility of incoming information by checking its consistency with world knowledge, prior beliefs, and contextual information (e.g., the broader discourse context). However, research on potential influences that shape validation processes has just started. One branch of research is investigating how world knowledge and contextual information contribute to integration and validation. World knowledge usually influences validation more strongly because information plausibility is the primary criterion for validation, but strong contextual information can yield influences as well. Contextual information that may be specifically relevant for routine validation is the credibility of a source providing text information. Source credibility bears a strong conceptual relationship to the validity of information. However, a dearth of research has investigated joint effects of plausibility and source credibility for routine validation. To fill this research gap, the aim of the present dissertation was to examine the role of source credibility in routine validation processes of text information. This dissertation argues that both source credibility and plausibility are considered in these processes. In particular, information plausibility is proposed as the primary criterion, but source credibility may modulate validation as an additional criterion. To this end, three studies with five self-paced reading experiments were conducted in which reading times served as an implicit indicator of validation and plausibility judgments as an explicit indicator, and the convergence or divergence between the two indicators was interpreted. The first study examined the interplay of plausibility and source credibility for the validation of world-knowledge consistent versus inconsistent text information embedded in short narratives. This highly plausible or highly implausible information was provided by a high- or low-expertise source. In Study 1, plausibility dominated validation as suggested by faster reading times and higher plausibility judgments for world-knowledge consistent information. Importantly, source credibility modulated the validation of highly implausible information but seemed to not matter for plausible information. High-credible sources increased the implausibility of highly implausible information to a greater extent compared with low-credible sources as indicated by longer reading times and lower plausibility judgments. These results diverged from recent findings from Foy et al. (2017). The second study investigated whether the modulating role of source credibility depends on the degree of implausibility of an information. Thus, Study 2 extended Study 1 by an intermediate, somewhat implausible level of plausibility (comparable to the implausible claims in Foy et al., 2017). Similar to Study 1, plausibility dominated validation as indicated by lower reading times and plausibility judgments with higher world-knowledge inconsistency. Again, source credibility had no effect on the routine validation of plausible information. However, high-credible sources mitigated the implausibility of somewhat implausible information as indicated by faster reading times and higher plausibility judgments but exacerbated the implausibility of highly implausible information as indicated by slower reading times and lower plausibility judgments. In short, Study 2 findings not only integrates the seemingly divergent results of Study 1 and Foy et al. (2017) but also provides strong support for the assumption that the degree of implausibility determines the modulating role of source credibility for validation. The third study examined the relationship of source credibility and plausibility in an ecologically valid social media setting with short Twitter messages varying in world-knowledge and text-belief consistency by trustworthy and untrustworthy sources. In sum, plausibility and to a lesser extent source credibility mattered for routine validation and explicit evaluation of text information as indicated by reading times and plausibility judgments. However, the pattern partly diverged from Study 1 and 2, possibly because the source information was more salient. In sum, the present dissertation yielded three insights. First, the findings further extends evidence for routine validation based on world-knowledge and prior beliefs. Second, the studies suggest that source credibility can modulate validation. Readers used source credibility cues for routine validation and the explicit evaluation of text information in all studies. Third, the impact of source credibility seems to depend on the degree of implausibility of information. The present findings have theoretical implications for theories of validation and text comprehension as well as practical implications for targeting threats associated with the prevalence of inaccurate information, for example, on the World Wide Web. Future research using eye-tracking methodology could further disentangle the routine and strategic underlying processes of the relationship between source credibility and plausibility. / Zahlreiche empirische Untersuchungen konnten zeigen, dass ein passiver und evaluativer Prozess – genannt Validierung – die Aktivierung und Integration von Textinformationen mit leserseitigem Vorwissen und Überzeugungen als grundlegende Prozesse des Textverstehens begleitet. Während der Konstruktion des Situationsmodells erfassen Validierungsprozesse fortlaufend und implizit die Plausibilität einer eingehenden Information, indem sie die Konsistenz mit leserseitigem Vorwissen und Überzeugungen sowie mit Kontextinformationen (z. B. vorherige Textinformationen) überprüfen. Die Erforschung weiterer Einflussgrößen für die Validierung hat jedoch gerade erst begonnen. Ein Forschungszweig beschäftigt sich mit der Frage, wie sich Kontextinformationen und Vorwissen in ihrem Beitrag zu Integrations- und Validierungsprozessen unterscheiden. Ein Befund dabei ist, dass das Vorwissen häufig einen stärkeren Einfluss auf die Validierungsprozesse hat und folglich die Informationsplausibilität das primäre Kriterium für die Validierung von Textinformationen ist. Starke Kontextinformationen können jedoch ebenfalls für die Bewertung von eingehenden Informationen herangezogen werden. Eine spezifische Kontextinformation, die eine konzeptuelle Verbindung zu der Validität einer Information hat und daher eine besondere Relevanz für die Validierung von Textinformationen besitzt, ist die Glaubwürdigkeit der Quelle, die eine Textinformation liefert. Es gibt jedoch nur vereinzelte Studien, die das interaktive Zusammenspiel der Informationsplausibilität und Quellenglaubwürdigkeit für die Validierung von Textinformationen untersucht haben. Die vorliegende Dissertation setzt an dieser Lücke an und untersucht die Rolle der Quellenglaubwürdigkeit für die routinierte Validierung von Textinformationen. Dabei wird angenommen, dass sowohl die Plausibilität als auch die Quellenglaubwürdigkeit in diesen Prozessen berücksichtigt werden. Die Plausibilität einer Information sollte hierbei das primäre Kriterium sein, das zur Validierung herangezogen wird, aber die Quellenglaubwürdigkeit sollte als zusätzliches Kriterium genutzt werden und die Prozesse potentiell zu modulieren. Zur Überprüfung dieser Annahmen wurden drei Lesezeitstudien mit insgesamt fünf Experimenten durchgeführt. Ob implizite und explizite Maße konvergieren oder divergieren ist aufschlussreich für die Untersuchung der Prozesse des Textverstehens. Daher dienten die Lesezeit als implizites Maß für Validierungsprozesse und die Beurteilung der Plausibilität einer Textinformation als explizites Maß in allen Studien. Die erste Studie untersuchte die Beziehung von Plausibilität und Quellenglaubwürdigkeit bei der Validierung von Textinformationen, die konsistent (plausibel) oder inkonsistent (stark unplausibel) mit dem Vorwissen waren. Diese Textinformationen waren eingebettet in kurzen Geschichten und wurden von einer Quelle mit viel bzw. wenig Expertise hinsichtlich des angesprochenen Wissensbereichs geäußert. In Studie 1 führten plausible Textinformationen zu kürzeren Lesezeiten und höheren Plausibilitätsurteilen als stark unplausible Textinformationen. Für plausible Informationen schien die Quellenglaubwürdigkeit keine Rolle zu spielen, jedoch führten glaubwürdige Quellen zu höheren Lesezeiten und niedrigeren Plausibilitätsurteilen bei stark unplausiblen Informationen. Studie 1 legt nahe, dass die Konsistenz mit dem Vorwissen das Hauptkriterium für die Validierung war und die Quellenglaubwürdigkeit als zusätzliches Kriterium die Validierung unplausibler Informationen modulieren kann, jedoch in der Wirkrichtung scheinbar abweichend zu aktuellen Befunden ist (Foy et al., 2017). Die zweite Studie untersuchte, ob die in Studie 1 gefundene, modulierende Rolle der Quellenglaubwürdigkeit für Validierungsprozesse vom Grad der Unplausibilität einer Information abhängt. Hierzu wurden die Konzeption und die Materialien der ersten Studie um eine mittlere Plausibilitätsstufe, die als „etwas unplausibel“ bezeichnet werden kann, erweitert; sonst waren die Studien sehr ähnlich. In Studie 2 zeigte sich ein dreigestufter Plausibilitätseffekt abhängig von der Konsistenz mit dem Vorwissen. Plausible Textinformationen wurden schneller gelesen und als plausibler beurteilt als etwas unplausible Informationen. Diese wiederum wurden schneller gelesen und als plausibler eingeschätzt als stark unplausible Informationen. Erneut wurde die Quellenglaubwürdigkeit während des Lesens plausibler Informationen nicht berücksichtigt, modulierte aber die Validierung unplausibler Informationen. Glaubwürdige Quellen verglichen mit unglaubwürdigen Quellen führten zu kürzeren Lesezeiten und einer höher eingeschätzten Plausibilität für etwas unplausible Informationen, aber verlängerten die Lesezeiten und verringerten die Plausibilitätsurteile stark unplausibler Informationen – letzteres war identisch mit dem Ergebnis von Studie 1. Studie 2 zeigt, dass die Plausibilität einer Information das Hauptkriterium für wissensbasierte Validierungsprozesse war. Wenn Informationen einen gewissen Grad an Unplausibilität erreichen, können glaubwürdige Quellen die Plausibilität eigentlich unplausibler Informationen erhöhen oder sogar weiter verringern. Die Ergebnisse von Studie 2 belegen die Annahme, dass der Grad der Unplausibilität einer Information die modulierende Rolle der Glaubwürdigkeit einer Quelle bestimmt und darüber hinaus werden die Befunde von Studie 1 und Foy et al. (2017) integriert. Die dritte Studie untersuchte die Beziehung von Plausibilität und Quellenglaubwürdigkeit eingebettet in einem sozialen Medium mit kurzen Twitter-Nachrichten als ein ökologisch valider Kontext. Die Nachrichten unterschieden sich in der vom Text vermittelten Überzeugung und der Vorwissenskonsistenz. Diese Nachrichten wurden präsentiert von stark und wenig vertrauenswürdigen Quellen. Zusammenfassend zeigen Lesezeiten und Plausibilitätsurteile, dass die Informationsplausibilität und in einem geringeren Maße die Quellenglaubwürdigkeit für die routinierte Validierung und explizite Bewertung der Textinformationen von Bedeutung waren, aber mit einem teilweise abweichenden Muster zu Studie 1 und 2. Eine mögliche Erklärung könnte in den stark salienten Quelleninformationen in Studie 3 liegen. Zusammengefasst hat die vorliegende Dissertation drei Erkenntnisse erbracht. Erstens, die Befundlage für routinierte Validierungsprozesse basierend auf der Plausibilität einer Information wurde erweitert. Zweitens, die Studien legen nahe, dass die Glaubwürdigkeit einer Quelle dabei auch eine Rolle spielt: in allen Studien nutzten die Leserinnen und Leser die Quellenglaubwürdigkeit als zusätzlichen Hinweis zur Validierung und zur expliziten Plausibilitätsbewertung von Textinformationen. Drittens, die Stärke und die Richtung des Einflusses der Quellenglaubwürdigkeit für die wissensbasierte Validierung von Textinformationen scheint vom Grad der Unplausibilität einer Information abzuhängen. Diese Ergebnisse erlauben Schlussfolgerungen für Theorien der Validierung und des Textverstehens sowie praktische Implikationen für die Bekämpfung von möglichen Folgen, die mit der Verbreitung von Falschinformationen verbunden sind. Zukünftige Experimente basierend auf Blickbewegungen könnten helfen die routinierten und strategischen Prozesse genauer zu trennen, die die Beziehung von Quellenglaubwürdigkeit und Plausibilität für die Validierung bestimmen.
135

Erfassung von Dimensionen der Selbstregulation. Der Locomotion-Assessment-Fragebogen (L-A-F). / Assessing dimensions of self-regulation. The locomotion vs. assessment questionnaire.

Sellin, Ina, Schütz, Astrid, Kruglanski, Arie W., Higgins, E. Tory 05 March 2003 (has links) (PDF)
A German version of the Locomotion - Assessment Scale (Kruglanski et al., 2000) is presented. The scale measures locomotion, which is considered the executive function of self-regulation („just do it“), and assessment, which is considered the evaluative function of self-regulation („do the right thing“). The scales were tested on several samples and proved to be orthogonal and homogeneous. Locomotion is related to positive self-evaluation, action-orientation, achievement-orientation and extraversion. Assessment is related to self-discipline and neuroticism. It is expected that both dimensions are needed for optimal self-regulation. / Vorgestellt wird die deutsche Fassung eines Fragebogens zur Selbstregulation nach Kruglanski et al. (2000). Unterschieden werden die unabhängig voneinander operierenden Dimensionen der Selbstregulation, die exekutive Dimension „Locomotion“ („es einfach zu tun“) und die evaluative Dimension „Assessment“ („das richtige zu tun“). Der Fragebogen wird an mehreren Stichproben erprobt und validiert. Die Skalen erweisen sich als homogen und voneinander unabhängig. Locomotion korreliert u.a. positiv mit Handlungsorientierung, positiver Selbstbewertung, Leistungsorientierung und Extraversion. Assessment steht in Zusammenhang mit Selbstdisziplin und Neurotizismus. Optimale Selbstregulation wird bei einem Zusammenwirken beider Dimensionen erwartet.
136

The Processing of Frequency and Duration

Winkler, Isabell 25 May 2009 (has links) (PDF)
Die Häufigkeit und die Dauer, mit der Ereignisse auftreten, sind zwei grundlegende Merkmale des Geschehens in unserer Umwelt. Sie beeinflussen unser Erleben und Verhalten und wirken sich auf Lernprozesse aus. In vielen Situationen müssen wir in der Lage sein, Unterschiede in Auftretenshäufigkeit und –dauer wahrzunehmen, um angemessen zu reagieren und die richtigen Entscheidungen zu treffen. In der vorliegenden Arbeit wird die menschliche Verarbeitung von Häufigkeit und Dauer anhand von Häufigkeits- und Zeitschätzungen untersucht. In bisherigen Untersuchungen wurde bereits festgestellt, dass sich die Wahrnehmungen von Häufigkeit und Dauer unter bestimmten Umständen gegenseitig beeinflussen: So werden Häufigkeiten umso größer geschätzt, je länger die entsprechenden Stimuli dargeboten werden; außerdem wird die Stimulusdauer als umso länger beurteilt, je öfter die Stimuli präsentiert werden. Auf der Basis dieser Befunde wurde vermutet, dass der Verarbeitung von Häufigkeit und Zeit ein gemeinsamer Verarbeitungsmechanismus zugrunde liegt. Tatsächlich wurde dies schon im Rahmen tierexperimenteller Studien bestätigt. Weiterhin gibt es neuropsychologische Befunde, die darauf hindeuten, dass Häufigkeit und Zeit in identischen Hirnstrukturen verarbeitet werden. Allerdings gibt es auch Befunde zur menschlichen Häufigkeits- und Zeitverarbeitung, die die Annahme eines gemeinsamen Verarbeitungsmechanismus in Frage stellt. Diese Studien zeigten eine asymmetrische Beziehung zwischen Häufigkeits- und Zeitschätzungen: Häufigkeitsurteile waren dabei sehr präzise und relativ unbeeinflusst von der Darbietungsdauer, während Zeiturteile wesentlich unpräziser waren und stark von der Stimulushäufigkeit beeinflusst wurden. Die vorliegende Arbeit ist motiviert durch die Annahme, dass es sich bei dem gefundenen asymmetrischen Beziehungsmuster um einen Forschungsartefakt handelt. Die Ursache für das beschriebene Ungleichgewicht zwischen Häufigkeits- und Zeiturteilen ist vermutlich die Tatsache, dass die Verarbeitung von Häufigkeit und Zeit unterschiedlich viel Aufmerksamkeit benötigt. Die Enkodierung von Stimulushäufigkeiten benötigt nur relativ wenig Aufmerksamkeit. Für eine vollständige Enkodierung der Darbietungsdauer ist hingegen wesentlich mehr Aufmerksamkeit nötig, die über die gesamte Präsentationsdauer des jeweiligen Stimulus‘ hinweg aufrecht erhalten werden muss. In den Studien, in denen ein asymmetrischer Zusammenhang gefunden wurde, wurden meist sehr viele Stimuli ohne spezielle Bedeutsamkeit für die Probanden präsentiert (z.B. Wortlisten). Vermutlich wurde deshalb nur wenig Aufmerksamkeit auf die Stimuli gerichtet, so dass zwar die Häufigkeit, nicht jedoch die Darbietungsdauer, vollständig enkodiert wurde. Die gefundene geringe Zeitsensitivität sowie die hohen Sensitivität für Häufigkeiten bestätigen diese Annahme. Ein asymmetrisches Beziehungsmuster ist unter diesen Umständen kaum verwunderlich, da zwar die gut differenzierten Häufigkeitsurteile viel Einfluss auf die kaum hinsichtlich der tatsächlichen Darbietungszeit diskriminierenden Zeiturteile haben können, umgekehrt ist dies jedoch kaum möglich. Diese Annahmen werden im Rahmen von drei Manuskripten überprüft. Im ersten Manuskript wurden die Auswirkungen kognitiver Beanspruchung auf die Häufigkeits- und Zeitverarbeitung untersucht. Die kognitive Beanspruchung wurde hierbei variiert anhand der Anzahl der zu verarbeitenden Stimuli sowie anhand der Aufgabenkomplexität. Eine hohe kognitive Beanspruchung geht dabei mit einer reduzierten Aufmerksamkeit für die einzelnen Stimuli einher. Bei hoher kognitiver Beanspruchung zeigten sich eine niedrige Zeitsensitivität und ein asymmetrisches Beziehungsmuster zwischen Häufigkeits- und Zeiturteilen. Bei geringer kognitiver Beanspruchung hingegen war die Zeitsensitivität höher und die Urteile beeinflussten sich gegenseitig. Im zweiten Manuskript lenkten wir die Aufmerksamkeit der Teilnehmer zum einen durch die Stimulusart (neutrale Worte versus emotionale Bilder) auf die Stimuli, zum anderen durch eine Aufgabe, bei der die Aufmerksamkeit während der gesamten Stimulusdarbietung auf die Stimuli gerichtet werden musste. Dabei zeigte sich die größte Zeitsensitivität, wenn emotionale Bilder gezeigt wurden und zusätzliche Aufmerksamkeit durchgehend auf die Stimuli gerichtet wurde. In dieser Bedingung fand sich zudem die größte gegenseitige Beeinflussung zwischen Häufigkeits- und Zeiturteilen. Im dritten Manuskript untersuchten wir den Effekt der Aufmerksamkeit auf die Häufigkeits- und Zeiturteile in realitätsnäheren experimentellen Settings. In der ersten Studie lenkten wir die Aufmerksamkeit der Probanden während der gesamten Präsentationsdauer auf die Stimuli (durch die Darbietung von Straßenverkehrssimulationen, in denen während der gesamten Präsentationsdauer Bewegung zu sehen war). Die Zeitsensitivität war hierbei hoch und Häufigkeits- und Zeiturteile beeinflussten sich gegenseitig. In der zweiten Studie wurde mittels einer Zweitaufgabe Aufmerksamkeit von den Stimuli abgezogen. Je mehr Aufmerksamkeit von den Stimuli abgelenkt wurde, desto geringer war die Zeitsensitivität und desto kleiner die gegenseitige Beeinflussung der Häufigkeits- und Zeiturteile. Die Befunde deuten allesamt auf einen gemeinsamen Verarbeitungsmechanismus von Häufigkeit und Zeit hin. In der vorliegenden Arbeit wird die Anwendung der gewonnenen Erkenntnisse für Entwicklung eines Erklärungsmodells der menschlichen Häufigkeits- und Zeitverarbeitung diskutiert.
137

Tempus Fugit

Müller, Nicholas 23 June 2010 (has links) (PDF)
Die vorliegende Dissertation behandelt die Fragestellung, inwiefern die Darstellung eines visualisierten zeitlichen Hinweisreizes während einer filmischen Narration einen Einfluss auf die Rezeptionsstrategie aufweist. Die Arbeit basiert auf der von Dolf Zillmann (1971) beschriebenen Excitation- Transfer-Theory, welche im Verlauf der Dissertation um eine Zukunftsdimension erweitert wird. Die ursprüngliche Theorie beruht dabei auf der Annahme, dass die langsamere endokrine Erregungsenergie des Menschen vom schnelleren kognitiven System situationsabhängig interpretiert werden kann. Ferner besagt die Theorie, dass durch die inhärente Trägheit des endokrinen Systems eine Erregungssituation nach einem Höhepunkt weiter andauert. Dies wurde unter Zuhilfenahme von biophysiologischen Messgeräten überprüft. Dabei wurde die prinzipielle Aufmerksamkeitszuwendung der Probanden zur Zeitdarstellung mittels einer Blickbewegungskamera fortlaufend überwacht, während gleichzeitig psychophysiologische Erregungswerte, wie Hautleitfähigkeit und Herzrate, aufgezeichnet wurden. Das Aufstellen von Hypothesen durch den Rezipienten über einen potentiellen weiteren Handlungsverlauf bildet in der Literatur (vgl. Ohler, 1994) einen der Hauptgründe für das Empfinden von Spannung während einer Narration. Dabei verläuft die Auflösung der narrativen Handlung stets zwischen den beiden dichotomen Grenzen einer positiven beziehungsweise negativen Handlungsklimax. Die der Arbeit zugrundeliegenden Überlegungen gehen davon aus, dass die Existenz einer visualisierten Zeitangabe dazu führt, dass spezifische Hypothesen über den narrativen Verlauf einer Handlung unter Aspekten des eigenen Zeitempfindens nicht länger realisierbar erscheinen. Je mehr sich die zeitliche Indikation dem Ende annähert, desto stärker ist demzufolge das Spannungsempfinden ausgeprägt. Hierzu zeigte sich, dass unter bestimmten Umständen eine Bereitschaft bei den Rezipienten existiert, die temporale Information in die Rezeption einzubeziehen. Die Auswirkungen auf das Erregungsniveau fielen insgesamt jedoch sehr gering aus. Demzufolge wird angenommen, dass eine zeitliche Visualisierung einen Einfluss auf die Informationsverarbeitung bei einer Filmrezeption hat. Dies konnte jedoch, wie die kritische Diskussion zum Abschluss der Dissertation aufzeigen wird, im Rahmen des verwendeten Designs nicht gezeigt werden.
138

On the Relation between Representation and Embodiment in Spatial Cognition / Zu der Relation zwischen Representation und Verkörperung in Räumlicher Kognition

Kuske, Nicolas 30 March 2021 (has links)
The claim that neuronal activity represents properties of the world outside of the brain plays a fundamental role in most of cognitive science. Enacted embodiment is the name of a theoretical framework which purports cognition to be rooted in bodily action. To investigate the relationship between representation and embodiment, the work presented here focuses on reasoning processes involving spatial relations among objects which are not part of the cognizing agent’s body. These environmental spatial relations are called allocentric. After defining the term “representation,” a model of human cognition is developed which allows us to experimentally distinguish representation from computation and action in the brain. It is further argued that the relation of neural activity in areas classically considered sensory and motor is a fundamental organizational principle of the brain. Importantly, the structure of the relation also depends on the embodiment of the agent. Finally, a study is presented in which participants explored a virtual reality (VR) city in different embodiment conditions and on multiple days. After each exploration participants completed tasks asking for different allocentric spatial relations. Performance in the spatial tasks interacts with both exploration time and embodiment condition. The findings indicate allocentric spatial representations to be structured by bodily action. Remaining variance can be explained through individual differences in spatial aptitude. Embodiment cannot account for the individual levels of ability. In conclusion, bodily action only partially structures the cognitive processes which represent spatial relations among objects in the agent’s environment.
139

Screening von Persönlichkeitsstörungen

Lange, Julia 31 July 2013 (has links)
Hintergrund: Obwohl Persönlichkeitsstörungen zu den häufigsten psychischen Erkrankungen in klinischen Behandlungseinrichtungen zählen, wird ihre Diagnostik häufig vernachlässigt und eine vorhandene Störung übersehen. Durch die Anwendung eines Screening-Verfahrens im ersten Schritt eines 2-stufigen Diagnostikprozesses soll eine möglicherweise vorhandene Persönlichkeitsstörung identifiziert werden. Ein positives Screening-Ergebnis wird im zweiten Schritt durch die Anwendung ausführlicher Diagnostikinstrumente verifiziert oder falsifiziert. Ein valider deutschsprachiger Screening-Fragebogen ist für diesen ersten Schritt bisher nicht verfügbar. Bislang entwickelte Screening-Verfahren wurden auf der Grundlage des kategorialen Klassifikationsmodells von Persönlichkeitsstörungen konstruiert. Das Vorliegen einer Persönlichkeitsstörung kann identifiziert werden, eine subsyndromale Persönlichkeitsstörungssymptomatik im Sinne ausgeprägter Persönlichkeitsakzentuierungen bislang noch nicht. Methoden: Es wurden drei Studien durchgeführt, in denen zwei Screening-Fragebögen auf der Grundlage unterschiedlicher Klassifikationsmodelle von Persönlichkeitsstörungen entwickelt wurden. Zur Validierung der beiden Screening-Fragebögen wurden verschiedene nichtklinische und klinische Stichproben herangezogen. Das Persönlichkeitsstörungs-Screening – Kurzform (PSS-K) basiert auf dem kategorialen Klassifikationsmodell von Persönlichkeitsstörungen und wird mittels der Receiver-Operating-Characteristic-Methodik ausgewertet. Das zweite Screening-Verfahren, das Personality Disorder Screening (PDS), wird erstmalig auf der theoretischen Grundlage des Hybridmodells der Klassifikation von Persönlichkeitsstörungen entwickelt und anhand der Latent-Class-Analysis (LCA) ausgewertet. Das Strukturierte Klinische Interview für DSM-IV, Achse-II: Persönlichkeitsstörungen (SKID-II) wurde zur Validierung der beiden Screening-Fragebögen genutzt. Ergebnisse: Das PSS-K erweist sich als reliabel und valide. Bei einer Sensitivität = .93 werden nahezu alle potentiell an einer Persönlichkeitsstörung erkrankten Personen erkannt. Das PDS weist ebenfalls eine gute Reliabilität auf. Die Auswertung durch die LCA zeigt den besten Modellfit für eine 4-Klassenlösung. Neben einer Klasse mit Personen ohne Persönlichkeitsstörung (PDS-) und mit Persönlichkeitsstörung (PDS+) konnten zwei Hybridklassen mit spezifischen Persönlichkeitsakzentuierungen identifiziert werden: histrionisch/dependent und selbstunsicher/zwanghaft. Die vier PDS-Klassen weisen spezifische Assoziationen mit soziodemografischen und klinischen Variablen auf. Diskussion: Die Entwicklung von Screening-Instrumenten auf der Grundlage unterschiedlicher Klassifikationsmodelle von Persönlichkeitsstörungen ist gelungen. Mit dem PSS-K steht ein reliabler und valider deutschsprachiger Screening-Fragebogen zur Verfügung, dessen Anwendung sich im stationären Behandlungssetting eignet. Das PDS ermöglicht erstmals die Identifikation von Personen mit subsyndromal ausgeprägter Persönlichkeitsstörungssymptomatik und kann für die Anwendung im ambulanten Behandlungssetting empfohlen werden.
140

Die psychosoziale Stellung von Eltern behinderter Kinder im Zeitalter der Pränataldiagnostik / The psychosocial status of families with disabled children in the era of prenatal diagnostics

Lenhard, Wolfgang January 2004 (has links) (PDF)
Die raschen Fortschritte der medizinischen, insbesondere der genetischen Diagnostik sind für Eltern von Kindern mit Behinderung Fluch und Segen zugleich: Einerseits stellt Unsicherheit hinsichtlich der Ursache der Behinderung für Eltern eine massive Belastung dar, die den Coping-Prozess wesentlich erschwert. Die Ausschöpfung der diagnostischen Möglichkeiten und das dann mögliche Auffinden des Grundes der Behinderung kann den effektiven Einsatz von Bewältigungsstrategien wesentlich erleichtern. Vorgeburtlich dagegen führt ein mit denselben Diagnosemethoden erhobener auffälliger Befund aufgrund des Mangels an therapeutischen Möglichkeiten sehr häufig zum Abbruch der Schwangerschaft. Mittels einer Fragebogenstudie an 925 Eltern von Kindern mit Down-Syndrom, Eltern von Kindern mit einem Kind mit geistiger Behinderung unklarer Ursache und Eltern nicht-behinderter Kinder wurde untersucht, ob diese Entwicklung zur Herausbildung eines neo-eugenischen Automatismus von pränataler Diagnose und Schwangerschaftsabbruch führt, als dessen Folge Menschen mit angeborener Behinderung als „vermeidbare Last“ erscheinen und Eltern von Kindern mit angeborenen Behinderungen gesellschaftlich ausgegrenzt werden. / The rapid increase of diagnostic possibilities of medicine is at the same time beneficial and threatening for parents of children with disabilities: On the one hand, diagnostic uncertainty is probably one of the greatest single psychological stressors for parents of children with a child with unassigned diagnosis and therefore, the exhaustion of diagnostic possibilities with the option of locating the reason of the handicap can substantially facilitate coping. On the other hand positive findings in prenatal investigations very often results in abortion as no therapeutic options are at hand. This could lead to an automatism of prenatal diagnosis and abortion. In the light of this development congenitally handicapped persons tend to be seen as an "evitable burden", with the consequence of neo-eugenic tendencies in society and the social exclusion of parents. This topic was addressed via a questionnaire study, in which 925 parents of non-disabled children, parents of children with Down syndrome and parents with a mentally retarded child with unknown diagnosis took part.

Page generated in 0.0211 seconds