Spelling suggestions: "subject:"diehäufigkeit"" "subject:"allelhäufigkeit""
1 |
Häufigkeit und Therapie der Perforation der Schneiderschen Membran bei der Sinusbodenaugmentation / Frequency and therapy of the perforation of the schneiderian membrane at the sinus floor elevationHäckel, Gregor January 2012 (has links) (PDF)
Die Sinusbodenelevation ist mittlerweile als sehr sicheres und vorhersagbares Standardverfahren zur Herstellung eines ausreichenden vertikalen Knochenangebotes im atrophierten posterioren Oberkiefer anzusehen. Neben der komplikationslosen Einheilung des Augmentats und der Implantate kann es, wie bei jedem anderen chirurgischen Eingriff auch, zum Auftreten von Komplikationen kommen. Die häufigste intraoperative Komplikation stellt dabei die Perforation der Schneiderschen Membran dar. Im Falle einer Membranperforation steht dem Operateur jedoch eine Vielzahl verschiedener Behandlungsmöglichkeiten zur Verfügung. Die gängigsten Methoden reichen vom Verschluss der Lazeration durch die Verwendung von Fibrinkleber, resorbierbarer Kollagenmembran, dem Nahtverschluss mit resorbierbarem Nahtmaterial bis hin zum Verschluss der Perforation durch die erweiterte Mobilisation der Kieferhöhlenschleimhaut. Überschreitet die Perforationsgröße jedoch einen kritischen Wert, so wird ein Abbruch der Operation ohne Sinuslift empfohlen, damit die Kieferhöhlenschleimhaut ausheilen kann. Ein späterer Versuch der Sinusbodenelevation ist nach Abheilung möglich. Grundsätzlich wird als medikamentöse Prophylaxe zum Schutz vor sinuidalen Infektionen eine orale Antibiotikagabe empfohlen. Jede dieser Therapiemethoden besitzt ein spezielles Indikationsspektrum, welches sich entsprechend der Art, Größe und Lokalisation der Perforation definiert. Eine international gültige Klassifikation der Perforationen mit der Empfehlung für eine spezielle Therapie gibt es allerdings nicht. Die Verwendung einer Barrieremembran zum Verschluss der Ruptur konnte sich aufgrund der einfachen Anwendung und der günstigen Prognose etablieren. Die verwendeten Knochenersatzmaterialien zur Schaffung eines suffizienten Implantatlagers im atrophierten posterioren Oberkiefer besitzen günstige Einheilungsprognosen. Sie können in Kombination mit autologem Knochen, aber auch in alleiniger Form, ein ausreichendes Knochenlager schaffen. Interessanterweise hatten auch Perforationen der Schneiderschen Membran ebenso wie Wunddehiszenzen keinerlei Einfluss auf den Knochengewinn oder die Einheilung des Knochenersatzmaterials und der Implantate. Lediglich bei der Verwendung unterschiedlicher Knochenersatzmaterialien zur Füllung des subantralen Hohlraumes lieferte die statistische Analyse signifikante Werte. Daneben muss eine Implantatüberlebensrate von 96,1 % im augmentierten Sinus als positives Ergebnis festgehalten werden. Zusammenfassend lässt sich sagen, dass körperfremde Knochenersatzmaterialien bei vertikalen Kieferhöhlenaugmentationen sinnvolle Alternativen zu autologem Knochenmaterial darstellen, da durch ihre Verwendung die Komorbidität eines Zweiteingriffs zur Gewinnung autologen Transplantatmaterials verhindert wird. Insbesondere im Rahmen von Sinusbodenelevationen können sie erfolgreich verwendet werden und besitzen eine günstige Prognose. Humane allogene Knochenersatzmaterialien besitzen eine gute Biokompatibilität, daneben bergen sie aber auch das Risiko einer HIV-, HCV- und Prionentransmission. Die aktuell verfügbaren osteokonduktiven Materialien auf Tricalciumphosphatbasis hingegen besitzen aufgrund der vollsynthetischen Herstellung kein Infektionsrisiko und weisen eine vergleichbar gute Biokompatibilität sowie eine unterschiedliche mechanische Stabilität auf, eine osteoinduktive Wirkung fehlt jedoch. Xenogene Knochenersatzmaterialien indes sind dem menschlichen Knochen ähnlich, besitzen daher eine hohe Biokompatibilität und werden vom Körper in körpereigenen Knochen um- bzw. eingebaut. Sie besitzen zudem osteokonduktive Eigenschaften. Unter Berücksichtigung all dieser Aspekte lässt sich abschließend sagen, dass sich die Sinusbodenelelvation in ihrer heutigen Form zu einer relativ sicheren und gut vorhersagbaren Behandlungsmöglichkeit zur Erweiterung des Knochenangebots im posterioren Oberkiefer entwickelt hat. Daneben hat sich die Verwendung von Knochenersatzmaterialien zur Füllung des subantralen Hohlraumes unter Berücksichtigung aller notwendigen anamnestischen Maßnahmen und sorgfältigen präoperativen Behandlungsplanung ebenso zu einer sinnvollen Behandlungsmöglichkeit entwickelt. / The most frequent complication of the sinus floor elevation is the perforation of the schneiderian membrane. The results are pathological sequelae like the inflammation of the sinus maxillaris which can lead to the loss of the augmentation material or the already inserted implants.
|
2 |
The Processing of Frequency and DurationWinkler, Isabell 25 May 2009 (has links) (PDF)
Die Häufigkeit und die Dauer, mit der Ereignisse auftreten, sind zwei grundlegende Merkmale des Geschehens in unserer Umwelt. Sie beeinflussen unser Erleben und Verhalten und wirken sich auf Lernprozesse aus. In vielen Situationen müssen wir in der Lage sein, Unterschiede in Auftretenshäufigkeit und –dauer wahrzunehmen, um angemessen zu reagieren und die richtigen Entscheidungen zu treffen.
In der vorliegenden Arbeit wird die menschliche Verarbeitung von Häufigkeit und Dauer anhand von Häufigkeits- und Zeitschätzungen untersucht. In bisherigen Untersuchungen wurde bereits festgestellt, dass sich die Wahrnehmungen von Häufigkeit und Dauer unter bestimmten Umständen gegenseitig beeinflussen: So werden Häufigkeiten umso größer geschätzt, je länger die entsprechenden Stimuli dargeboten werden; außerdem wird die Stimulusdauer als umso länger beurteilt, je öfter die Stimuli präsentiert werden. Auf der Basis dieser Befunde wurde vermutet, dass der Verarbeitung von Häufigkeit und Zeit ein gemeinsamer Verarbeitungsmechanismus zugrunde liegt. Tatsächlich wurde dies schon im Rahmen tierexperimenteller Studien bestätigt. Weiterhin gibt es neuropsychologische Befunde, die darauf hindeuten, dass Häufigkeit und Zeit in identischen Hirnstrukturen verarbeitet werden.
Allerdings gibt es auch Befunde zur menschlichen Häufigkeits- und Zeitverarbeitung, die die Annahme eines gemeinsamen Verarbeitungsmechanismus in Frage stellt. Diese Studien zeigten eine asymmetrische Beziehung zwischen Häufigkeits- und Zeitschätzungen: Häufigkeitsurteile waren dabei sehr präzise und relativ unbeeinflusst von der Darbietungsdauer, während Zeiturteile wesentlich unpräziser waren und stark von der Stimulushäufigkeit beeinflusst wurden.
Die vorliegende Arbeit ist motiviert durch die Annahme, dass es sich bei dem gefundenen asymmetrischen Beziehungsmuster um einen Forschungsartefakt handelt. Die Ursache für das beschriebene Ungleichgewicht zwischen Häufigkeits- und Zeiturteilen ist vermutlich die Tatsache, dass die Verarbeitung von Häufigkeit und Zeit unterschiedlich viel Aufmerksamkeit benötigt. Die Enkodierung von Stimulushäufigkeiten benötigt nur relativ wenig Aufmerksamkeit. Für eine vollständige Enkodierung der Darbietungsdauer ist hingegen wesentlich mehr Aufmerksamkeit nötig, die über die gesamte Präsentationsdauer des jeweiligen Stimulus‘ hinweg aufrecht erhalten werden muss. In den Studien, in denen ein asymmetrischer Zusammenhang gefunden wurde, wurden meist sehr viele Stimuli ohne spezielle Bedeutsamkeit für die Probanden präsentiert (z.B. Wortlisten). Vermutlich wurde deshalb nur wenig Aufmerksamkeit auf die Stimuli gerichtet, so dass zwar die Häufigkeit, nicht jedoch die Darbietungsdauer, vollständig enkodiert wurde. Die gefundene geringe Zeitsensitivität sowie die hohen Sensitivität für Häufigkeiten bestätigen diese Annahme. Ein asymmetrisches Beziehungsmuster ist unter diesen Umständen kaum verwunderlich, da zwar die gut differenzierten Häufigkeitsurteile viel Einfluss auf die kaum hinsichtlich der tatsächlichen Darbietungszeit diskriminierenden Zeiturteile haben können, umgekehrt ist dies jedoch kaum möglich. Diese Annahmen werden im Rahmen von drei Manuskripten überprüft.
Im ersten Manuskript wurden die Auswirkungen kognitiver Beanspruchung auf die Häufigkeits- und Zeitverarbeitung untersucht. Die kognitive Beanspruchung wurde hierbei variiert anhand der Anzahl der zu verarbeitenden Stimuli sowie anhand der Aufgabenkomplexität. Eine hohe kognitive Beanspruchung geht dabei mit einer reduzierten Aufmerksamkeit für die einzelnen Stimuli einher. Bei hoher kognitiver Beanspruchung zeigten sich eine niedrige Zeitsensitivität und ein asymmetrisches Beziehungsmuster zwischen Häufigkeits- und Zeiturteilen. Bei geringer kognitiver Beanspruchung hingegen war die Zeitsensitivität höher und die Urteile beeinflussten sich gegenseitig.
Im zweiten Manuskript lenkten wir die Aufmerksamkeit der Teilnehmer zum einen durch die Stimulusart (neutrale Worte versus emotionale Bilder) auf die Stimuli, zum anderen durch eine Aufgabe, bei der die Aufmerksamkeit während der gesamten Stimulusdarbietung auf die Stimuli gerichtet werden musste. Dabei zeigte sich die größte Zeitsensitivität, wenn emotionale Bilder gezeigt wurden und zusätzliche Aufmerksamkeit durchgehend auf die Stimuli gerichtet wurde. In dieser Bedingung fand sich zudem die größte gegenseitige Beeinflussung zwischen Häufigkeits- und Zeiturteilen.
Im dritten Manuskript untersuchten wir den Effekt der Aufmerksamkeit auf die Häufigkeits- und Zeiturteile in realitätsnäheren experimentellen Settings. In der ersten Studie lenkten wir die Aufmerksamkeit der Probanden während der gesamten Präsentationsdauer auf die Stimuli (durch die Darbietung von Straßenverkehrssimulationen, in denen während der gesamten Präsentationsdauer Bewegung zu sehen war). Die Zeitsensitivität war hierbei hoch und Häufigkeits- und Zeiturteile beeinflussten sich gegenseitig. In der zweiten Studie wurde mittels einer Zweitaufgabe Aufmerksamkeit von den Stimuli abgezogen. Je mehr Aufmerksamkeit von den Stimuli abgelenkt wurde, desto geringer war die Zeitsensitivität und desto kleiner die gegenseitige Beeinflussung der Häufigkeits- und Zeiturteile.
Die Befunde deuten allesamt auf einen gemeinsamen Verarbeitungsmechanismus von Häufigkeit und Zeit hin. In der vorliegenden Arbeit wird die Anwendung der gewonnenen Erkenntnisse für Entwicklung eines Erklärungsmodells der menschlichen Häufigkeits- und Zeitverarbeitung diskutiert.
|
3 |
Zur Schätzung von Häufigkeitstrends von extremen Wetter- und KlimaereignissenMudelsee, Manfred, Börngen, Michael, Tetzlaff, Gerd 03 January 2017 (has links) (PDF)
Die Vorteile der Kernschätzung gegenüber dem Abzählen von Ereignissen in Zeitintervallen werden dargestellt. Für das beiden Methoden gemeinsame Glättungsproblem gestattet die Kreuzvalidierung eine Lösung. Für die Hochwasserereignisse der Oder im Zeitraum 1350 bis 1850 wird eine Abnahme der Häufigkeit nach ca. 1675 gefunden; weitergehende Aussagen bedingen eine Homogenisierung der Daten. Die dargestellte Methodik wird gegenwärtig in das Computerprogramm XTREND implementiert. / The advantages of kernel estimation over counting of events within time intervals are shown. Cross validation offers a solution for the smoothing problem which is common to both methods. As regards ooding events of the river Oder in 1350 to 1850, a decrease in the frequency after about 1675 is found. More detailed results demand homogenized data. The method is currently being implemented into the computer program XTREND.
|
4 |
Die Bedeutung von Aufmerksamkeit für die Expositionsdauer im Mere Exposure EffectConrad, Samuel 11 November 2021 (has links)
Der wiederholte Kontakt mit einem neutralen Stimulus kann nach Zajonc (1968) zu einer Einstellungsverbesserung führen. Insbesondere die Häufigkeit der Exposition wurde intensiv untersucht und stellt eine zentrale Größe für den Mere Exposure Effect (MEE) dar. Uneindeutige Ergebnisse liegen dagegen für die Expositionsdauer vor (Bornstein, 1989). In einem Online-Experiment mit gemischtem Design (N=105) wurde der Einfluss der Gesamtdauer auf den MEE in Abhängigkeit von der Aufmerksamkeit untersucht. Die Aufmerksamkeitsmanipulation erfolgte im Sinne des Paradigmas von Betsch et al. (2010), durch eine Tastendruckbedingung, wodurch die Zeitverarbeitung gesteigert werden sollte. In den Ergebnissen zeigte sich kein Interaktionseffekt zwischen Gesamtdauer und Aufmerksamkeit. Außerdem konnte der Effekt des bloßen Kontakts nicht eindeutig identifiziert werden. Die höchste Anzahl sowie die längste Dauer der Exposition waren jedoch mit der stärksten Stimuluspräferenz assoziiert. Für die Aufmerksamkeit zeigte sich eine Einflusstendenz auf den untersuchten Effekt. Das Ergebnis einer Nebenhypothese deutet außerdem auf eine Bedeutung des Persönlichkeitsmerkmals Neurotizismus im MEE hin.:Zusammenfassung
Abstract
1 Einleitung
2 Theorie
2.1 Mere Exposure Effect
2.1.1 Definition und Historie
2.1.2 Affective Primacy Model
2.1.3 Representation-Matching Model
2.1.4 Relevante Ergebnisse und Einflussfaktoren
2.2 Verarbeitung von Zeit und Häufigkeit
2.2.1 Definition und Merkmale
2.2.2 Relevante Forschungsergebnisse
2.3 Theoretische Ableitung der Hypothesen
3 Methodische Vorgehensweise
3.1 Rekrutierung und Stichprobe
3.2 Versuchsdesign
3.2.1 Unabhängige Variablen
3.2.2 Abhängige Variable
3.3 Material und Skalen
3.4 Umsetzung
3.5 Durchführung und Ablauf
3.6 Empirische Hypothesen
3.7 Auswertung und statistische Verfahren
3.8 Vorstudie
3.9 A-priori Poweranalyse
4 Ergebnisse
4.1 Deskriptive Statistik
4.2 Überprüfung der Aufmerksamkeitsmanipulation
4.3 Testung der Hypothesen
4.4 Zusätzliche Analysen
5 Diskussion
5.1 Interpretation der Ergebnisse
5.2 Einordnung der Ergebnisse
5.3 Limitationen und Probleme
5.4 Forschungsausblick
5.5 Fazit
6 Literaturverzeichnis
Anhang / Repeated exposure to neutral stimuli is associated with an increase in preference (Zajonc, 1968). While the frequency of exposures is extensively researched and was found to be relevant in the mere exposure effect, the data for exposure duration is far from conclusive (Bornstein, 1989). In this study, a mixed design was used in an online-experiment (N=105) to investigate the relationship between total duration and stimulus preference depending on attentional variation. The manipulation of attention followed the paradigm of Betsch et al. (2010), in which pressing a key while the stimulus is being presented increased attention and therefore temporal processing. The results showed no interaction between total duration of exposure and attention. Moreover, there was no correlational effect of mere exposure found in this study. But both the most frequent exposure as well as the longest total duration condition where associated with the highest affective rating. In the absence of statistical significance, attention was related to the MEE. The testing of a secondary hypothesis revealed a possible importance of neuroticism in the liking of familiar versus unfamiliar stimuli.:Zusammenfassung
Abstract
1 Einleitung
2 Theorie
2.1 Mere Exposure Effect
2.1.1 Definition und Historie
2.1.2 Affective Primacy Model
2.1.3 Representation-Matching Model
2.1.4 Relevante Ergebnisse und Einflussfaktoren
2.2 Verarbeitung von Zeit und Häufigkeit
2.2.1 Definition und Merkmale
2.2.2 Relevante Forschungsergebnisse
2.3 Theoretische Ableitung der Hypothesen
3 Methodische Vorgehensweise
3.1 Rekrutierung und Stichprobe
3.2 Versuchsdesign
3.2.1 Unabhängige Variablen
3.2.2 Abhängige Variable
3.3 Material und Skalen
3.4 Umsetzung
3.5 Durchführung und Ablauf
3.6 Empirische Hypothesen
3.7 Auswertung und statistische Verfahren
3.8 Vorstudie
3.9 A-priori Poweranalyse
4 Ergebnisse
4.1 Deskriptive Statistik
4.2 Überprüfung der Aufmerksamkeitsmanipulation
4.3 Testung der Hypothesen
4.4 Zusätzliche Analysen
5 Diskussion
5.1 Interpretation der Ergebnisse
5.2 Einordnung der Ergebnisse
5.3 Limitationen und Probleme
5.4 Forschungsausblick
5.5 Fazit
6 Literaturverzeichnis
Anhang
|
5 |
The Impact of Attention on Judgments of Frequency and DurationWinkler, Isabell, Glauer, Madlen, Betsch, Tilmann, Sedlmeier, Peter 03 June 2015 (has links) (PDF)
Previous studies that examined human judgments of frequency and duration found an asymmetrical relationship: While frequency judgments were quite accurate and independent of stimulus duration, duration judgments were highly dependent upon stimulus frequency. A potential explanation for these findings is that the asymmetry is moderated by the amount of attention directed to the stimuli. In the current experiment, participants\' attention was manipulated in two ways: (a) intrinsically, by varying the type and arousal potential of the stimuli (names, low-arousal and high-arousal pictures), and (b) extrinsically, by varying the physical effort participants expended during the stimulus presentation (by lifting a dumbbell vs. relaxing the arm). Participants processed stimuli with varying presentation frequencies and durations and were subsequently asked to estimate the frequency and duration of each stimulus. Sensitivity to duration increased for pictures in general, especially when processed under physical effort. A large effect of stimulus frequency on duration judgments was obtained for all experimental conditions, but a similar large effect of presentation duration on frequency judgments emerged only in the conditions that could be expected to draw high amounts of attention to the stimuli: when pictures were judged under high physical effort. Almost no difference in the mutual impact of frequency and duration was obtained for low-arousal or high-arousal pictures. The mechanisms underlying the simultaneous processing of frequency and duration are discussed with respect to existing models derived from animal research. Options for the extension of such models to human processing of frequency and duration are suggested.
|
6 |
Chest pain in general practiceFrese, Thomas, Mahlmeister, Jarmila, Heitzer, Maximilian, Sandholzer, Hagen 30 June 2016 (has links) (PDF)
Objective: Chest pain is a common reason for an encounter in general practice. The present investigation was set out to characterize the consultation rate of chest pain, accompanying symptoms, frequency of diagnostic and therapeutic interventions, and results of the encounter. Materials and Methods: Cross‑sectional data were collected from randomly selected patients in the German Sächsische Epidemiologische Studie in der Allgemeinmedizin 2 (SESAM 2) and analyzed from the Dutch Transition Project. Results: Overall, 270 patients from the SESAM 2 study consulted a general practitioner due to chest pain (3% of all consultations). Chest pain was more frequent in people aged over 45 years. The most common diagnostic interventions were physical examination, electrocardiogram at rest and analysis of blood parameters. For the majority of cases, the physicians arranged a follow‑up consultation or prescribed drugs. The transition project documented 8117 patients reporting chest pain with a frequency of 44.5/1000 patient years (1.7% of all consultations). Physical examination was also the most common diagnostic intervention, and physician’s advice the most relevant therapeutic one. Conclusion: The most common causes for chest pain were musculoskeletal problems followed by cardiovascular diseases. Ischemic heart disease, psychogenic problems, and respiratory diseases each account for about 10% of the cases. However, acutely dangerous causes are rare in general practice.
|
7 |
The Processing of Frequency and DurationWinkler, Isabell 13 May 2009 (has links)
Die Häufigkeit und die Dauer, mit der Ereignisse auftreten, sind zwei grundlegende Merkmale des Geschehens in unserer Umwelt. Sie beeinflussen unser Erleben und Verhalten und wirken sich auf Lernprozesse aus. In vielen Situationen müssen wir in der Lage sein, Unterschiede in Auftretenshäufigkeit und –dauer wahrzunehmen, um angemessen zu reagieren und die richtigen Entscheidungen zu treffen.
In der vorliegenden Arbeit wird die menschliche Verarbeitung von Häufigkeit und Dauer anhand von Häufigkeits- und Zeitschätzungen untersucht. In bisherigen Untersuchungen wurde bereits festgestellt, dass sich die Wahrnehmungen von Häufigkeit und Dauer unter bestimmten Umständen gegenseitig beeinflussen: So werden Häufigkeiten umso größer geschätzt, je länger die entsprechenden Stimuli dargeboten werden; außerdem wird die Stimulusdauer als umso länger beurteilt, je öfter die Stimuli präsentiert werden. Auf der Basis dieser Befunde wurde vermutet, dass der Verarbeitung von Häufigkeit und Zeit ein gemeinsamer Verarbeitungsmechanismus zugrunde liegt. Tatsächlich wurde dies schon im Rahmen tierexperimenteller Studien bestätigt. Weiterhin gibt es neuropsychologische Befunde, die darauf hindeuten, dass Häufigkeit und Zeit in identischen Hirnstrukturen verarbeitet werden.
Allerdings gibt es auch Befunde zur menschlichen Häufigkeits- und Zeitverarbeitung, die die Annahme eines gemeinsamen Verarbeitungsmechanismus in Frage stellt. Diese Studien zeigten eine asymmetrische Beziehung zwischen Häufigkeits- und Zeitschätzungen: Häufigkeitsurteile waren dabei sehr präzise und relativ unbeeinflusst von der Darbietungsdauer, während Zeiturteile wesentlich unpräziser waren und stark von der Stimulushäufigkeit beeinflusst wurden.
Die vorliegende Arbeit ist motiviert durch die Annahme, dass es sich bei dem gefundenen asymmetrischen Beziehungsmuster um einen Forschungsartefakt handelt. Die Ursache für das beschriebene Ungleichgewicht zwischen Häufigkeits- und Zeiturteilen ist vermutlich die Tatsache, dass die Verarbeitung von Häufigkeit und Zeit unterschiedlich viel Aufmerksamkeit benötigt. Die Enkodierung von Stimulushäufigkeiten benötigt nur relativ wenig Aufmerksamkeit. Für eine vollständige Enkodierung der Darbietungsdauer ist hingegen wesentlich mehr Aufmerksamkeit nötig, die über die gesamte Präsentationsdauer des jeweiligen Stimulus‘ hinweg aufrecht erhalten werden muss. In den Studien, in denen ein asymmetrischer Zusammenhang gefunden wurde, wurden meist sehr viele Stimuli ohne spezielle Bedeutsamkeit für die Probanden präsentiert (z.B. Wortlisten). Vermutlich wurde deshalb nur wenig Aufmerksamkeit auf die Stimuli gerichtet, so dass zwar die Häufigkeit, nicht jedoch die Darbietungsdauer, vollständig enkodiert wurde. Die gefundene geringe Zeitsensitivität sowie die hohen Sensitivität für Häufigkeiten bestätigen diese Annahme. Ein asymmetrisches Beziehungsmuster ist unter diesen Umständen kaum verwunderlich, da zwar die gut differenzierten Häufigkeitsurteile viel Einfluss auf die kaum hinsichtlich der tatsächlichen Darbietungszeit diskriminierenden Zeiturteile haben können, umgekehrt ist dies jedoch kaum möglich. Diese Annahmen werden im Rahmen von drei Manuskripten überprüft.
Im ersten Manuskript wurden die Auswirkungen kognitiver Beanspruchung auf die Häufigkeits- und Zeitverarbeitung untersucht. Die kognitive Beanspruchung wurde hierbei variiert anhand der Anzahl der zu verarbeitenden Stimuli sowie anhand der Aufgabenkomplexität. Eine hohe kognitive Beanspruchung geht dabei mit einer reduzierten Aufmerksamkeit für die einzelnen Stimuli einher. Bei hoher kognitiver Beanspruchung zeigten sich eine niedrige Zeitsensitivität und ein asymmetrisches Beziehungsmuster zwischen Häufigkeits- und Zeiturteilen. Bei geringer kognitiver Beanspruchung hingegen war die Zeitsensitivität höher und die Urteile beeinflussten sich gegenseitig.
Im zweiten Manuskript lenkten wir die Aufmerksamkeit der Teilnehmer zum einen durch die Stimulusart (neutrale Worte versus emotionale Bilder) auf die Stimuli, zum anderen durch eine Aufgabe, bei der die Aufmerksamkeit während der gesamten Stimulusdarbietung auf die Stimuli gerichtet werden musste. Dabei zeigte sich die größte Zeitsensitivität, wenn emotionale Bilder gezeigt wurden und zusätzliche Aufmerksamkeit durchgehend auf die Stimuli gerichtet wurde. In dieser Bedingung fand sich zudem die größte gegenseitige Beeinflussung zwischen Häufigkeits- und Zeiturteilen.
Im dritten Manuskript untersuchten wir den Effekt der Aufmerksamkeit auf die Häufigkeits- und Zeiturteile in realitätsnäheren experimentellen Settings. In der ersten Studie lenkten wir die Aufmerksamkeit der Probanden während der gesamten Präsentationsdauer auf die Stimuli (durch die Darbietung von Straßenverkehrssimulationen, in denen während der gesamten Präsentationsdauer Bewegung zu sehen war). Die Zeitsensitivität war hierbei hoch und Häufigkeits- und Zeiturteile beeinflussten sich gegenseitig. In der zweiten Studie wurde mittels einer Zweitaufgabe Aufmerksamkeit von den Stimuli abgezogen. Je mehr Aufmerksamkeit von den Stimuli abgelenkt wurde, desto geringer war die Zeitsensitivität und desto kleiner die gegenseitige Beeinflussung der Häufigkeits- und Zeiturteile.
Die Befunde deuten allesamt auf einen gemeinsamen Verarbeitungsmechanismus von Häufigkeit und Zeit hin. In der vorliegenden Arbeit wird die Anwendung der gewonnenen Erkenntnisse für Entwicklung eines Erklärungsmodells der menschlichen Häufigkeits- und Zeitverarbeitung diskutiert.
|
8 |
Zur Schätzung von Häufigkeitstrends von extremen Wetter- und KlimaereignissenMudelsee, Manfred, Börngen, Michael, Tetzlaff, Gerd 03 January 2017 (has links)
Die Vorteile der Kernschätzung gegenüber dem Abzählen von Ereignissen in Zeitintervallen werden dargestellt. Für das beiden Methoden gemeinsame Glättungsproblem gestattet die Kreuzvalidierung eine Lösung. Für die Hochwasserereignisse der Oder im Zeitraum 1350 bis 1850 wird eine Abnahme der Häufigkeit nach ca. 1675 gefunden; weitergehende Aussagen bedingen eine Homogenisierung der Daten. Die dargestellte Methodik wird gegenwärtig in das Computerprogramm XTREND implementiert. / The advantages of kernel estimation over counting of events within time intervals are shown. Cross validation offers a solution for the smoothing problem which is common to both methods. As regards ooding events of the river Oder in 1350 to 1850, a decrease in the frequency after about 1675 is found. More detailed results demand homogenized data. The method is currently being implemented into the computer program XTREND.
|
9 |
Regelverstöße im Straßenverkehr: Häufigkeit • Schadenfolgen • Sanktionierung • Prävention: ForschungsberichtGesamtverband der Deutschen Versicherungswirtschaft e. V. 27 April 2021 (has links)
Für einen Großteil der Verkehrsunfälle kann die Nichteinhaltung von Verkehrsregeln als Unfallursache oder zumindest als Begleitumstand des Unfalls betrachtet werden. Maßnahmen, die auf eine Erhöhung des Grades der Regelbefolgung abzielen, sind deshalb ein wesentliches Element von Strategien zur Verbesserung des Sicherheitsniveaus im Straßenverkehr. Mit dem Ziel, die wissenschaftlichen Grundlagen für Strategien und Maßnahmen zur Deliktprävention zu verbessern, wurden im Rahmen der vorliegenden Studie Häufigkeit und Schadenfolgen von Regelverstößen auf Basis unfallstatistischer Daten untersucht. Vor dem Hintergrund dieser Delikthäufigkeits- und Deliktfolgenanalyse wurden Art und Härte der Sanktionierung von Verkehrsdelikten statistisch analysiert und aus juristischer Sicht bewertet. Parallel dazu waren die Bestimmungsfaktoren der Regelbefolgung bzw. Regelmissachtung für drei besonders gravierende Delikte (Geschwindigkeitsübertretung, Rotlichtmissachtung und Fahren unter Alkoholeinfluss) Gegenstand einer verhaltenspsychologischen Untersuchung, deren empirische Grundlage durch eine repräsentative Befragung von Kraftfahrzeugführern geschaffen wurde. Untersuchungsgegenstand waren dabei jeweils Verkehrsverstöße von Pkw-Fahrern. Mit diesem breit angelegten, interdisziplinären Forschungsansatz war es möglich, eine Prioritätenliste für die Bekämpfung von Verkehrsdelikten zu erstellen, Handlungsspielräume im Bereich des Sanktionensystems auszuloten und verhaltenswissenschaftlich fundierte Maßnahmenempfehlungen für die verschiedenen Eingriffbereiche der Verkehrssicherheitsarbeit zu entwickeln. Verkehrsdelikte sind ein Massenphänomen, über dessen tatsächliches Ausmaß es allerdings keine repräsentativen statistischen Daten gibt (Ausnahme: Verstöße gegen die Gurt- und Helmtragepflicht). Informationen liegen nur über Verstöße vor, die zu polizeilich erfassten Unfällen geführt haben, sowie über Verkehrsdelikte, die im Rahmen des Ordnungswidrigkeiten- oder Strafrechts sanktioniert worden sind. Die auf Basis von Daten der amtlichen Straßenverkehrsunfallstatistik 2007 durchgeführte Delikthäufigkeitsanalyse zeigt, dass als personenbezogene Unfallursachen Verstöße im Bereich Vorfahrt/Vorrang (26 %), nicht angepasste Geschwindigkeit (21 %) sowie Abbiegen, Wenden, Rückwärtsfahren, An- und Einfahren (21 %) dominieren. Die drei häufigsten der insgesamt 10 untersuchten Deliktarten machen also mehr als zwei Drittel aller personenbezogenen Unfallursachen aus. Mit den Daten 2007 des Verkehrszentralregisters (VZR) ergibt sich, dass das Delikt Überschreiten der zulässigen Höchstgeschwindigkeit mit weitem Abstand am häufigsten sanktioniert wird (77 % aller VZRMitteilungen). Weitere 11 % der VZR-Mitteilungen entfallen auf den Deliktbereich Vorfahrt/ Vorrang, der Rotlichtverstöße an Lichtsignalanlagen mit einschließt. Dass sich die festgestellten Unfallursachen grundlegend anders auf die Deliktarten verteilen als die sanktionierten Verkehrsverstöße, liegt vor allem an der nach Deliktart höchst unterschiedlichen Kontrollintensität. Die Frage, ob gegebenenfalls auch das Risiko der Unfallverursachung je nach Deliktart unterschiedlich ist, konnte im Rahmen der Studie nicht untersucht werden, da repräsentative Daten zum Verbreitungsgrad der verschiedenen Verkehrsdelikte fehlen. / Violations of traffic rules are significant causes or concomitants of traffic accidents. Therefore, strategies and measures targeting the degree of compliance with traffic regulations can be expected to increase traffic safety. In order to identify the most relevant types of violations committed by car drivers, the incidence of accidents caused by different types of traffic violations has been investigated empirically using data from German Road Traffic Accident Statistics. Additionally, the monetary accident costs of different types of traffic offences have been estimated. In light of the results of these investigations the severity of sanctions actually imposed on violators of different traffic rules has been studied using data from the Central Traffic Register (VZR). The empirical findings have been discussed and critically assessed from a legal point of view. In parallel, the internal and external determinants of compliance or non-compliance with three important traffic regulations have been investigated in a psychological study (violations of speed limits, red light running and driving under the influence of alcohol). A representative sample of about one thousand drivers of motorized vehicles was interviewed for this purpose. Traffic offences certainly can be considered as a mass phenomenon. With very few exceptions (e.g. seat belt usage), however, valid general statistical information on the incidence of violations of traffic rules does not exist. Data on traffic violations leading to accidents, of course, are available as accident causes are registered by police. The most frequent accident causes attributed to car drivers are: violation of priority/precedence rules (26 %), unadapted speed (21 %), and violation of rules referring to turning, U-turn, entering the flow of traffic (21 %). VZR data indicate that the vast majority of sanctions (irrespective of accident causation or involvement) result from exceeding the speed limit (77 %). Another 11 % of sanctions stem from failure to observe traffic lights and other priority/precedence rules. As can be seen, the distribution by type of traffic offence is completely different for accident causes as compared to sanctions. This is due to the fact that intensity of police surveillance differs significantly between the various types of offences (surveillance of speeding is by far the most wide-spread type of traffic monitoring).
|
10 |
The Impact of Attention on Judgments of Frequency and DurationWinkler, Isabell, Glauer, Madlen, Betsch, Tilmann, Sedlmeier, Peter 03 June 2015 (has links)
Previous studies that examined human judgments of frequency and duration found an asymmetrical relationship: While frequency judgments were quite accurate and independent of stimulus duration, duration judgments were highly dependent upon stimulus frequency. A potential explanation for these findings is that the asymmetry is moderated by the amount of attention directed to the stimuli. In the current experiment, participants\' attention was manipulated in two ways: (a) intrinsically, by varying the type and arousal potential of the stimuli (names, low-arousal and high-arousal pictures), and (b) extrinsically, by varying the physical effort participants expended during the stimulus presentation (by lifting a dumbbell vs. relaxing the arm). Participants processed stimuli with varying presentation frequencies and durations and were subsequently asked to estimate the frequency and duration of each stimulus. Sensitivity to duration increased for pictures in general, especially when processed under physical effort. A large effect of stimulus frequency on duration judgments was obtained for all experimental conditions, but a similar large effect of presentation duration on frequency judgments emerged only in the conditions that could be expected to draw high amounts of attention to the stimuli: when pictures were judged under high physical effort. Almost no difference in the mutual impact of frequency and duration was obtained for low-arousal or high-arousal pictures. The mechanisms underlying the simultaneous processing of frequency and duration are discussed with respect to existing models derived from animal research. Options for the extension of such models to human processing of frequency and duration are suggested.
|
Page generated in 0.0233 seconds