• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 2
  • Tagged with
  • 7
  • 7
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Assessment of Counterfeit and Substandard Antimalarial Medicines using High Performance Thin Layer Chromatography and High Performance Liquid Chromatography / Untersuchung der Qualität gefälschter Antimalaria-Medikamente mittels Hochleistungs-Dünnschichtchromatographie und Hochleistungs-Flüssigchromatographie

Hebron Mwalwisi, Yonah January 2018 (has links) (PDF)
Although the prevalence of substandard and counterfeit pharmaceutical products is a global problem, it is more critical in resource-constrained countries. The national medicines regulatory authorities (MNRA) in these countries have limited resources to cater for regular quality surveillance programmes aimed at ensuring that medicines in circulation are of acceptable quality. Among the reasons explained to hinder the implementation of these strategies is that compendial monographs are too complicated and require expensive infrastructures in terms of environment, equipment and consumables. In this study it was therefore aimed at developing simple, precise, and robust HPLC and HPTLC methods utilizing inexpensive, readily available chemicals (methanol and simple buffers) that can determine the APIs, other API than declared one, and which are capable of impurity profiling. As an outcome of this study, three isocratic and robust HPLC and two HPTLC methods for sulfadoxine, sulfalene, pyrimethamine, primaquine, artesunate, as well as amodiaquine have been developed and validated. All HPLC methods are operated using an isocratic elution mode which means they can be implemented even with a single pump HPLC system and standard C18 columns. The densitometric sulfadoxine/sulfalene and pyrimethamine method utilizes standard TLC plates as well as inexpensive, readily available and safe chemicals (toluene, methanol, and ethyl acetate), while that for artesunate and amodiaquine requires HPTLC plates as well as triethylamine and acetonitrile due to challenges associated with the analysis of amodiaquine and poorly the detectable artesunate. These HPTLC methods can be implemented as alternative to those requiring HPLC equipment e.g. in countries that already have acquired densitometer equipment. It is understood that HPTLC methods are less sensitive, precise and accurate when compared to HPLC methods, but this hindrance can easily be addressed by sending representative samples to third party quality control laboratories where the analytical results are verified using compendial HPLC methods on a regular basis. It is therefore anticipated that the implementation of these methods will not only address the problem of limited resources required for medicines quality control but also increase the number of monitored targeted antimalarial products as well as the number of resource- constrained countries participating in quality monitoring campaigns. Moreover, the experiences and skills acquired within this work will be applied to other API groups, e. g. antibiotics, afterwards. / Trotz der weltweiten Verbreitung gefälschter Arzneimittel und solcher, die nicht die deklarierte Menge an Wirkstoff enthalten, sind vor allem Entwicklungs- und Schwellenländer von dieser Problematik betroffen. Die Arzneimittelüberwachungs- bzw. Zulassungsbehörden dieser Länder verfügen nur über eingeschränkte Möglichkeiten, die Arzneimittelqualität regelmäßig zu überwachen und somit sicherzustellen, dass die im Markt befindlichen Medikamente eine gute Qualität aufweisen. Einer der Gründe hierfür ist unter anderem, dass die in Arzneibüchern beschriebenen Methoden oftmals sehr komplex sind und eine umfassende Laborausstattung, spezielle Geräte oder teure Chemikalien benötigen. In dieser Arbeit wurden einfache, genaue und robuste flüssigchromatographische Methoden entwickelt, die lediglich günstige, überall verfügbare Chemikalien (z. B. Methanol oder einfache Puffersalze) benötigen und mit denen der Gehalt des deklarierten Arzneistoffes, Arzneistoffverwechslungen sowie das Verunreinigungsprofil bestimmt werden kann. Es konnten drei isokratische, robuste flüssigchromatographische sowie zwei dünnschichtchromatographische Methoden zur Bestimmung von Sulfadoxin, Sulfalen, Pyrimethamin, Primaquin, Artesunat sowie Amodiaquin entwickelt und validiert werden. Alle flüssigchromatographischen Methoden arbeiten isokratisch, folglich können sie auch mit sehr einfachen HPLC-Geräten mit beispielsweise nur einem Pumpenkopf genutzt werden. Zudem werden nur einfache, kommerziell erhältliche C18-Säulen benötigt. Die densitometrischen Methoden für Sulfadoxin/Sulfalen sowie Pyrimethamin benötigen standardisierte Dünnschichtchromatographie-Platten sowie günstige, überall verfügbare und wenig toxische Chemikalien wie beispielsweise Toluol, Methanol oder Ethylacetat. Für die Methode zur Bestimmung von Artesunat und Amodiaquin werden Hochleistungsdünnschichtchromatographie-Platten und Triethylamin sowie Acetonitril benötigt. Dieser Umstand ist der Tatsache geschuldet, dass Amodiaquin und Artesunat sich anderweitig nur ungenügend trennen ließen. Die dünnschichtchromatographischen Protokolle können als Alternative zur HPLC eingesetzt werden, beispielsweise überall dort, wo bereits die entsprechenden Gerätschaften vorhanden sind. Natürlich weisen dünnschichtchromatographische Methoden im Vergleich zur Flüssigchromatographie eine geringere Sensitivität, Präzision und Richtigkeit auf, dies kann jedoch dadurch umgangen werden, die entsprechenden Methoden nur zum Screening zu verwenden und die zu analysierenden Proben anderweitig, z. B. in externen Laboratorien, detailliert zu untersuchen. Dort können beispielsweise Methoden aus gängigen Arzneibüchern verwendet werden. Durch die Implementierung der neu entwickelten Methoden kann zum einen das Problem schlecht verfügbarer Chemikalien umgangen werden und gleichzeitig die Anzahl an untersuchten Arzneimitteln erhöht werden. Dies ist ein wichtiger Beitrag zur Qualitätskontrolle in Ländern mit eingeschränkten Infrastrukturen.
2

Original, Kopie, Fälschung

Bürger, Thomas 11 March 2014 (has links) (PDF)
In der Ausstellung „Original und digital – Schätze der SLUB und die Kunst ihrer Reproduktion“ werden in der Schatzkammer und im Buchmuseum der SLUB Dresden die technischen Möglichkeiten von Nachdruck, Faksimile und digitaler Kopie vor Augen geführt. Während im Krieg beschädigte oder zerstörte Originale dank ihrer Reproduktion in Form von Abschriften oder Faksimiles erhalten sind, bietet die Digitalisierung heute exzellente Möglichkeiten, den Schutz von Originalen mit weltweiter Verfügbarkeit für Kultur und Wissenschaft in exzellenter Qualität zu verbinden.
3

„Wahrheiten über Wahrheiten – Medienethik und Medienfälschungen“

Roestel, Hans-Christian 06 August 2008 (has links) (PDF)
Fakes als mediale Produkte, auch „Borderline-Journalismus“ genannt, bezeichnen das Phänomen des vorsätzlich fälschenden Journalismus. Hierzu zählen die seinerzeit gefälschten Hitler-Tagebücher (stern),erfundene Interviews mit Hollywoodstars (u.a. SZ-Magazin) oder gefälschte TV-Reportagen (stern-tv). Weitere Felder sind manipulativer Fotojournalismus und in bestimmter Weise auch die Szene der „Webblogger“. „Medienethik“ hat daher nicht nur die Funktion, sozio-moralische Diskurse zu führen, sondern auch in einer möglichst öffentlichen Diskussion bedenklich erscheinende Geschehnisse explizit im Medienkontext aufzuarbeiten und zu analysieren. Ihr kommt so besonders die Funktion einer Berufsregeloder Standesethik zu. Es werden zwei Fallbeispiele (Tom Kummers „Starinterviews“, Janet Cookes „Jimmy’s World“) diskutiert. / Phony media products, also known as „borderline-journalism“, mark the phenomenon of the intentional faking journalism. Among those occur the faked Adolf-Hitler-Diaries (stern-magazine), the fabulous Hollywood star-interviews (Süddeutsche Zeitung-Magazine) or faked tv-reports (stern-tv). Further facets are manipulated photojournalism products and in special relation the „webblogger-scene“. „Mediaethics“ therefore is more than social-moralistic discussion. At least in public discourses (in the public about media, but especially in the media about themselves) they have carefully to locate and analyze dubious media contents, fulfilling their role as watchdog and professional caring instance. Referring to German and American fake journalists and their products in this essay two examples are shown.
4

Original, Kopie, Fälschung: Fluch und Segen technischer Reproduzierbarkeit von Kunst

Bürger, Thomas 11 March 2014 (has links)
In der Ausstellung „Original und digital – Schätze der SLUB und die Kunst ihrer Reproduktion“ werden in der Schatzkammer und im Buchmuseum der SLUB Dresden die technischen Möglichkeiten von Nachdruck, Faksimile und digitaler Kopie vor Augen geführt. Während im Krieg beschädigte oder zerstörte Originale dank ihrer Reproduktion in Form von Abschriften oder Faksimiles erhalten sind, bietet die Digitalisierung heute exzellente Möglichkeiten, den Schutz von Originalen mit weltweiter Verfügbarkeit für Kultur und Wissenschaft in exzellenter Qualität zu verbinden.
5

Faking the Implicit Association Test (IAT): Predictors, Processes, and Detection

Röhner, Jessica 05 February 2014 (has links) (PDF)
Unverfälschbarkeit stellt ein wichtiges Gütekriterium psychologischer Testverfahren dar. Dieses Kriterium gilt dann als erfüllt, wenn das Testverfahren auf Grund seiner Konstruktion keine Steuerung oder Verzerrung der Ausprägung von Testwerten seitens der Versuchspersonen ermöglicht (vgl. Moosbrugger & Kelava, 2012). Im Gegensatz zu direkten Verfahren (z.B. Fragebogen und Interviews), bei welchen die Ausprägung hinsichtlich eines Merkmales durch Selbstbeschreibung der Versuchspersonen erfragt wird und eine Verfälschung (z.B. durch sozial erwünschtes Antwortverhalten) nicht ausgeschlossen werden kann, wurde indirekten Verfahren (z.B. dem Impliziten Assoziationstest; IAT; Greenwald, McGhee, & Schwartz, 1998) lange Zeit Immunität gegen Fälschungsversuche unterstellt. Diese begründet sich unter anderem durch die Annahme, dass mittels indirekter Verfahren implizite Merkmale gemessen werden. Implizite Merkmale unterscheiden sich von den „eher klassischen“ expliziten Merkmalen, welche vorwiegend mittels direkter Verfahren gemessen werden. Ein wesentlicher Unterschied besteht darin, dass Versuchspersonen nicht notwendigerweise um die Ausprägung hinsichtlich ihrer impliziten Merkmale wissen und dass sie diese Ausprägung auch nicht kontrollieren können (vgl. De Houwer, 2006; De Houwer & Moors, 2007, in press). Die theoretischen Annahmen bezüglich der Eigenschaften impliziter Merkmale bzw. Messergebnisse legen zwei Implikationen nahe. Erstens: Wir können implizite Merkmale ausschließlich über indirekte Zugänge erfassen, da diese nicht notwendigerweise bewusst sind und so eine Selbstauskunft nicht möglich erscheint. Zweitens: Personen können ihre impliziten Messergebnisse nicht kontrollieren und folglich auch nicht verfälschen. Vermutlich gab es auch aus diesem Grund vor wenigen Jahren einen regelrechten Boom, der zu der Entwicklung einer Vielzahl indirekter Verfahren zur Erfassung impliziter Merkmale geführt hat. Ob jedoch die Messergebnisse dieser Verfahren tatsächlich implizit und damit nicht verfälschbar sind, darf nicht nur theoretisch unterstellt, sondern muss empirisch überprüft werden (vgl. De Houwer, 2006). Der IAT gilt als das bekannteste, reliabelste und valideste indirekte Verfahren (Bosson, Swan, & Pennebaker, 2000; Rudolph, Schröder-Abé, Schütz, Gregg, & Sedikides, 2008). In meiner Dissertation habe ich mich aus diesem Grund der empirischen Überprüfung auf Verfälschbarkeit des IATs gewidmet. Die vorliegende Dissertation besteht aus insgesamt fünf Kapiteln. Das 1. Kapitel bildet eine theoretische Einführung zu den Themen Fälschung im diagnostischen Kontext und zum IAT. Grundlegende Befunde und Fragen zur Verfälschbarkeit des IATs werden dargestellt. Kapitel 2 bis 4 bilden empirische Beiträge meiner Forschung, die sich jeweils schwerpunktmäßig mit unterschiedlichen Aspekten der Verfälschbarkeit des IATs beschäftigen. In Kapitel 2 wird der Frage nachgegangen, unter welchen Bedingungen der IAT verfälschbar ist. Bis dato haben die wenigen existierenden Studien ein sehr widersprüchliches Bild bezüglich der Verfälschbarkeit des IATs aufgezeigt. Ein Grund hierfür könnte sein, dass potentiell relevante Faktoren, welche die Verfälschbarkeit des Verfahrens beeinflussen können, noch nie gemeinsam in einer Studie untersucht wurden. Die vorliegende Studie wurde genau mit diesem Ziel konstruiert und durchgeführt. Die Ergebnisse verweisen auf ein komplexes Zusammenspiel verschiedener Faktoren und zeigen auf, unter welchen Bedingungen der IAT verfälschbar ist. Implikationen dieser Ergebnisse werden kritisch diskutiert. In Kapitel 3 werden die Fragen beantwortet, wie Personen den IAT verfälschen und ob Fälschung im IAT detektierbar ist. Die Forschung hat sich bislang nur bedingt damit beschäftigt, was fälschende Personen tun, um ihre Messergebnisse wie gewünscht zu beeinflussen. Es wurde auch noch nicht untersucht, ob Versuchspersonen unter verschiedenen Bedingungen (z.B. Fälschungsziel: hohe vs. niedrige Testwerte) unterschiedliche Strategien anwenden. Dennoch wurden Indices vorgeschlagen, welche in der Lage sein sollen, Fälschung im IAT zu detektieren (Agosta, Ghirardi, Zogmaister, Castiello, & Sartori, 2011; Cvencek, Greenwald, Brown, Gray, & Snowden, 2010). In der vorgestellten Studie habe ich einerseits untersucht, welche Strategien fälschende Personen anwenden und ob sie, je nach Bedingung, zu unterschiedlichen Strategien greifen. Andererseits habe ich untersucht, welche dieser Strategien tatsächlich mit erfolgreicher Fälschung des IATs einhergehen. Schließlich habe ich untersucht, ob die in der Vergangenheit vorgeschlagenen Indices tatsächlich in der Lage sind, erfolgreiche FälscherInnen zu detektieren. Meine Ergebnisse zeigen, dass fälschende Personen unterschiedliche Strategien anwenden, um ihr Ziel zu erreichen. Damit verbunden zeigte sich auch, dass es schwerer ist als bislang angenommen, erfolgreiche FälscherInnen im IAT zu detektieren. Implikationen dieser Ergebnisse werden kritisch diskutiert. Kapitel 4 beschäftigt sich mit der Frage, ob kognitive Fähigkeiten ein erfolgreiches Fälschen im IAT erleichtern. Bisher wurden diese Fähigkeiten nur mit Fälschungserfolg in direkten Verfahren in Verbindung gebracht (vgl. Hartshorne & May, 1928; Nguyen, Biderman, & McDaniel, 2005; Ones, Viswesvaran, & Reiss, 1996; Pauls & Crost, 2005; Snell, Sydell, & Lueke, 1999; Tett, Freund, Christiansen, Fox, & Coaster, 2012; Weiner & Gibson, 2000). In der vorgestellten Studie habe ich untersucht, ob sie auch beim Fälschen des IATs eine Rolle spielen. Besonders habe ich mich dabei für die Rolle des g Faktors der Intelligenz, der Verarbeitungsgeschwindigkeit und der Konzentrationsfähigkeit interessiert. Die Ergebnisse meiner Studie zeigen auf, dass einige dieser Prädiktoren tatsächlich einen Einfluss auf den Fälschungserfolg im IAT haben. Implikationen dieser Ergebnisse werden kritisch diskutiert. Das 5. Kapitel bildet eine Zusammenführung und Integration der Befunde meiner Forschung in die bestehende Theorie. Zudem werden ein Ausblick für die weitere Forschung sowie Empfehlungen für die Praxis gegeben.
6

„Wahrheiten über Wahrheiten – Medienethik und Medienfälschungen“

Roestel, Hans-Christian 06 August 2008 (has links)
Fakes als mediale Produkte, auch „Borderline-Journalismus“ genannt, bezeichnen das Phänomen des vorsätzlich fälschenden Journalismus. Hierzu zählen die seinerzeit gefälschten Hitler-Tagebücher (stern),erfundene Interviews mit Hollywoodstars (u.a. SZ-Magazin) oder gefälschte TV-Reportagen (stern-tv). Weitere Felder sind manipulativer Fotojournalismus und in bestimmter Weise auch die Szene der „Webblogger“. „Medienethik“ hat daher nicht nur die Funktion, sozio-moralische Diskurse zu führen, sondern auch in einer möglichst öffentlichen Diskussion bedenklich erscheinende Geschehnisse explizit im Medienkontext aufzuarbeiten und zu analysieren. Ihr kommt so besonders die Funktion einer Berufsregeloder Standesethik zu. Es werden zwei Fallbeispiele (Tom Kummers „Starinterviews“, Janet Cookes „Jimmy’s World“) diskutiert. / Phony media products, also known as „borderline-journalism“, mark the phenomenon of the intentional faking journalism. Among those occur the faked Adolf-Hitler-Diaries (stern-magazine), the fabulous Hollywood star-interviews (Süddeutsche Zeitung-Magazine) or faked tv-reports (stern-tv). Further facets are manipulated photojournalism products and in special relation the „webblogger-scene“. „Mediaethics“ therefore is more than social-moralistic discussion. At least in public discourses (in the public about media, but especially in the media about themselves) they have carefully to locate and analyze dubious media contents, fulfilling their role as watchdog and professional caring instance. Referring to German and American fake journalists and their products in this essay two examples are shown.
7

Faking the Implicit Association Test (IAT): Predictors, Processes, and Detection

Röhner, Jessica 23 January 2014 (has links)
Unverfälschbarkeit stellt ein wichtiges Gütekriterium psychologischer Testverfahren dar. Dieses Kriterium gilt dann als erfüllt, wenn das Testverfahren auf Grund seiner Konstruktion keine Steuerung oder Verzerrung der Ausprägung von Testwerten seitens der Versuchspersonen ermöglicht (vgl. Moosbrugger & Kelava, 2012). Im Gegensatz zu direkten Verfahren (z.B. Fragebogen und Interviews), bei welchen die Ausprägung hinsichtlich eines Merkmales durch Selbstbeschreibung der Versuchspersonen erfragt wird und eine Verfälschung (z.B. durch sozial erwünschtes Antwortverhalten) nicht ausgeschlossen werden kann, wurde indirekten Verfahren (z.B. dem Impliziten Assoziationstest; IAT; Greenwald, McGhee, & Schwartz, 1998) lange Zeit Immunität gegen Fälschungsversuche unterstellt. Diese begründet sich unter anderem durch die Annahme, dass mittels indirekter Verfahren implizite Merkmale gemessen werden. Implizite Merkmale unterscheiden sich von den „eher klassischen“ expliziten Merkmalen, welche vorwiegend mittels direkter Verfahren gemessen werden. Ein wesentlicher Unterschied besteht darin, dass Versuchspersonen nicht notwendigerweise um die Ausprägung hinsichtlich ihrer impliziten Merkmale wissen und dass sie diese Ausprägung auch nicht kontrollieren können (vgl. De Houwer, 2006; De Houwer & Moors, 2007, in press). Die theoretischen Annahmen bezüglich der Eigenschaften impliziter Merkmale bzw. Messergebnisse legen zwei Implikationen nahe. Erstens: Wir können implizite Merkmale ausschließlich über indirekte Zugänge erfassen, da diese nicht notwendigerweise bewusst sind und so eine Selbstauskunft nicht möglich erscheint. Zweitens: Personen können ihre impliziten Messergebnisse nicht kontrollieren und folglich auch nicht verfälschen. Vermutlich gab es auch aus diesem Grund vor wenigen Jahren einen regelrechten Boom, der zu der Entwicklung einer Vielzahl indirekter Verfahren zur Erfassung impliziter Merkmale geführt hat. Ob jedoch die Messergebnisse dieser Verfahren tatsächlich implizit und damit nicht verfälschbar sind, darf nicht nur theoretisch unterstellt, sondern muss empirisch überprüft werden (vgl. De Houwer, 2006). Der IAT gilt als das bekannteste, reliabelste und valideste indirekte Verfahren (Bosson, Swan, & Pennebaker, 2000; Rudolph, Schröder-Abé, Schütz, Gregg, & Sedikides, 2008). In meiner Dissertation habe ich mich aus diesem Grund der empirischen Überprüfung auf Verfälschbarkeit des IATs gewidmet. Die vorliegende Dissertation besteht aus insgesamt fünf Kapiteln. Das 1. Kapitel bildet eine theoretische Einführung zu den Themen Fälschung im diagnostischen Kontext und zum IAT. Grundlegende Befunde und Fragen zur Verfälschbarkeit des IATs werden dargestellt. Kapitel 2 bis 4 bilden empirische Beiträge meiner Forschung, die sich jeweils schwerpunktmäßig mit unterschiedlichen Aspekten der Verfälschbarkeit des IATs beschäftigen. In Kapitel 2 wird der Frage nachgegangen, unter welchen Bedingungen der IAT verfälschbar ist. Bis dato haben die wenigen existierenden Studien ein sehr widersprüchliches Bild bezüglich der Verfälschbarkeit des IATs aufgezeigt. Ein Grund hierfür könnte sein, dass potentiell relevante Faktoren, welche die Verfälschbarkeit des Verfahrens beeinflussen können, noch nie gemeinsam in einer Studie untersucht wurden. Die vorliegende Studie wurde genau mit diesem Ziel konstruiert und durchgeführt. Die Ergebnisse verweisen auf ein komplexes Zusammenspiel verschiedener Faktoren und zeigen auf, unter welchen Bedingungen der IAT verfälschbar ist. Implikationen dieser Ergebnisse werden kritisch diskutiert. In Kapitel 3 werden die Fragen beantwortet, wie Personen den IAT verfälschen und ob Fälschung im IAT detektierbar ist. Die Forschung hat sich bislang nur bedingt damit beschäftigt, was fälschende Personen tun, um ihre Messergebnisse wie gewünscht zu beeinflussen. Es wurde auch noch nicht untersucht, ob Versuchspersonen unter verschiedenen Bedingungen (z.B. Fälschungsziel: hohe vs. niedrige Testwerte) unterschiedliche Strategien anwenden. Dennoch wurden Indices vorgeschlagen, welche in der Lage sein sollen, Fälschung im IAT zu detektieren (Agosta, Ghirardi, Zogmaister, Castiello, & Sartori, 2011; Cvencek, Greenwald, Brown, Gray, & Snowden, 2010). In der vorgestellten Studie habe ich einerseits untersucht, welche Strategien fälschende Personen anwenden und ob sie, je nach Bedingung, zu unterschiedlichen Strategien greifen. Andererseits habe ich untersucht, welche dieser Strategien tatsächlich mit erfolgreicher Fälschung des IATs einhergehen. Schließlich habe ich untersucht, ob die in der Vergangenheit vorgeschlagenen Indices tatsächlich in der Lage sind, erfolgreiche FälscherInnen zu detektieren. Meine Ergebnisse zeigen, dass fälschende Personen unterschiedliche Strategien anwenden, um ihr Ziel zu erreichen. Damit verbunden zeigte sich auch, dass es schwerer ist als bislang angenommen, erfolgreiche FälscherInnen im IAT zu detektieren. Implikationen dieser Ergebnisse werden kritisch diskutiert. Kapitel 4 beschäftigt sich mit der Frage, ob kognitive Fähigkeiten ein erfolgreiches Fälschen im IAT erleichtern. Bisher wurden diese Fähigkeiten nur mit Fälschungserfolg in direkten Verfahren in Verbindung gebracht (vgl. Hartshorne & May, 1928; Nguyen, Biderman, & McDaniel, 2005; Ones, Viswesvaran, & Reiss, 1996; Pauls & Crost, 2005; Snell, Sydell, & Lueke, 1999; Tett, Freund, Christiansen, Fox, & Coaster, 2012; Weiner & Gibson, 2000). In der vorgestellten Studie habe ich untersucht, ob sie auch beim Fälschen des IATs eine Rolle spielen. Besonders habe ich mich dabei für die Rolle des g Faktors der Intelligenz, der Verarbeitungsgeschwindigkeit und der Konzentrationsfähigkeit interessiert. Die Ergebnisse meiner Studie zeigen auf, dass einige dieser Prädiktoren tatsächlich einen Einfluss auf den Fälschungserfolg im IAT haben. Implikationen dieser Ergebnisse werden kritisch diskutiert. Das 5. Kapitel bildet eine Zusammenführung und Integration der Befunde meiner Forschung in die bestehende Theorie. Zudem werden ein Ausblick für die weitere Forschung sowie Empfehlungen für die Praxis gegeben.

Page generated in 0.0314 seconds