Anreize im Arbeitsleben sind wirksam – doch man kann Vieles falsch machen

Anreize wirken. Wenn sie Anreize sind. Sie wirken auf das Verhalten, zu dem sie kontingent vergeben werden. Das ist nicht unbedingt immer das Verhalten, das vom Anreizgeber beabsichtigt wurde.

Auch wenn es gelegentlich geleugnet wird, Anreize wie Geld, Vergünstigungen oder beruflicher Aufstieg können sehr wirksam sein und Menschen dazu motivieren, mehr oder anders zu arbeiten als ohne diesen Anreiz. Das ist auch nicht weiter verwunderlich, denn das ist exakt das, was die Verhaltensanalyse aussagt: Die Konsequenzen des Verhaltens wirken auf diese zurück. Verhalten, das zum Erfolg geführt hat, wird später in ähnlichen Situationen wieder gezeigt – das ist das Effektgesetz nach Thorndike (1927). Doch in der Praxis lauern einige Tücken.

Zunächst einmal muss der Anreiz auch ein Anreiz sein. In der Regel funktioniert Geld als Anreiz sehr gut, einfach deshalb, weil Geld (zumeist) ein sogenannter generalisierter Verstärker ist: Man kann Geld gegen viele Dinge eintauschen, das macht es so attraktiv. Im Gegensatz zu Schokolade kann man von Geld nie genug haben. Doch ob etwas ein Verstärker ist oder nicht, hängt nicht nur von seinem Wert ab. Die Situation, in der ein Anreiz eingesetzt wird (welches Verhalten verstärkt werden soll und wer daran beteiligt ist), bestimmt mit, ob der Anreiz tatsächlich verstärkt, also wirkt: Selbst Geld ist für viele von uns kein Verstärker, wenn wir mit Geld dazu gebracht werden sollen, etwas zu tun, das uns widerstrebt oder wenn die Person, die uns das Geld anbietet, uns unsympathisch ist.

Viele Führungskräfte verkennen diese relationale Qualität (was als Anreiz wirkt, hängt von allen möglichen Begleitumständen ab) und wundern sich, warum die Mitarbeiter sich nicht durch den Anreiz motivieren lassen. Das betrifft nicht nur Geld, sondern auch alle anderen Anreize, die in der Managementliteratur gerne als Motivatoren gehandelt werden: berufliche Entscheidungsfreiheit, Kompetenzerleben, soziale Anerkennung. Sie wirken bei vielen, vielleicht den meisten Beschäftigten, und in vielen Situationen als Anreiz, aber vielleicht nicht auf alle Tätigkeiten oder Aspekte von Tätigkeiten. Bei einer eher „kreativen“ Leistung ist Entscheidungsfreiheit vermutlich oft ein guter Motivator. Bei einer eher mechanischen Tätigkeit eventuell nicht („Sie dürfen sich entscheiden, ob Sie erst die blauen oder erst die roten Teile zusammenschrauben“).

Doch gehen wir mal, grob vereinfachend, davon aus, dass Geld tatsächlich ein Anreiz für die Mitarbeiter ist (zumeist trifft das ja zu). Dann gibt es immer noch ein Problem, das gerne vernachlässigt wird und das dann dazu führt, dass Anreize entweder nicht wirken oder ganz katastrophale Nebenwirkungen haben. Denn, damit die Vergabe eines Anreizes in der beabsichtigten Weise wirkt, muss klar sein, welches Verhalten durch den Anreiz verstärkt werden soll. Verhaltenswissenschaftlich ausgedrückt: Der Anreiz muss kontingent auf ein bestimmtes Verhalten erfolgen. Wird der Anreiz dagegen nicht-kontingent vergeben (der Beschäftigte erhält den Anreiz, gleich welches Verhalten er zeigt), wirkt er auch nicht. Wird er kontingent auf das falsche Verhalten vergeben, so führt das dazu, dass man mehr von dem falschen Verhalten bekommt. Wie Aubrey Daniels (Daniels & Bailey, 2016) es ausdrückt: When you reinforce the wrong behavior, you’ll get more of it.

Ein Beispiel aus dem Bereich der Arbeitssicherheit: Viele Firmen geben Ihren Mitarbeitern Prämien, wenn diese unfallfrei arbeiten. Die Firmen tun dies, weil sie durch Arbeitsunfälle Geld verlieren (u. a. durch Ausfallzeiten), aber auch aufgrund der Sorge um die Gesundheit der Beschäftigten. Arbeitsunfälle resultieren oft aus dem Verhalten der Mitarbeiter. Die Prämie soll bewirken, dass die Mitarbeiter anders, nämlich sicherer arbeiten. Konkret sieht das so aus: Gibt es z. B. in einer Abteilung ein ganzes Jahr lang keinen Arbeitsunfall, erhält jeder Mitarbeiter dieser Abteilung am Ende des Jahres eine Prämie von 1000 Euro. Das funktioniert tatsächlich mehr oder weniger gut. Oft werden in diesen Firmen weniger Arbeitsunfälle berichtet (wobei die Wirkung auf die meldepflichtigen Unfälle geringer sein dürfte als auf die „kleinen“ Unfälle, die nur zu einem Eintrag ins Verbandbuch führen – aus Gründen, die sich dem Leser gleich erschließen). Doch ist dieser Rückgang wenigstens zum Teil darauf zurückzuführen, dass Unfälle verschwiegen werden. Anreizsysteme für „unfallfreies Arbeiten“ führen zum „Under-Reporting“ von Unfällen (Pransky, Snyder, Dembe & Himmelstein, 1999; Probst & Estrada, 2010). Der Anreiz „Geld“ wirkt, jedoch nicht in der beabsichtigten Weise.

Ein Anreizsystem, wie oben beschrieben, verletzt mehrere verhaltensanalytische Prinzipien. Der Anreiz wird zum einen nicht kontingent auf das Verhalten vergeben, dass tatsächlich gefordert ist: Sicherer zu arbeiten. Er wird kontingent auf das Ausbleiben eines Verhaltens, der Meldung eines Unfalls, vergeben. Anekdotische Beobachtungen verdeutlichen die Ergebnisse der oben zitierten Studien: In einer Firma mit einem solchen Prämiensystem berichteten mir die Mitarbeiter einmal, als ein Kollege neulich einen Unfall hatte, hätte ihn der Meister zu seinem Hausarzt gefahren und aufgefordert, nicht zu erzählen, dass das auf der Arbeit passiert sei. Kleinere Unfälle lassen sich leichter verschweigen als größere (daher meine Vermutung, dass die Wirkung des Prämiensystems auf die Erste-Hilfe-Fälle stärker ist als auf meldepflichtige Unfälle, denen in der Regel ein weniger leicht zu verschleierndes Ereignis zugrunde liegt).

Ein weiteres Problem mit diesem Anreizsystem ist der mangelhafte Zusammenhang zwischen dem aktuellen Verhalten und der Prämienvergabe am Ende des Jahres. Selbst wenn ich unterstelle, dass das Anreizsystem die Mitarbeiter motiviert, sicherer arbeiten zu wollen, wird ihnen das nur schwerlich aufgrund des Anreizes gelingen. Unfälle entstehen durch viele kleine Entscheidungen im Arbeitsalltag. Die unmittelbaren Bedingungen und Konsequenzen dieses Verhaltens wirken stärker als die Prämie am Ende des Jahres. Verhaltensanalytisch formuliert: Es mangelt an der Kontiguität von Verhalten (zu einem Zeitpunkt t0 entscheiden, ob ich eine PSA benutze oder nicht) und Konsequenz (zum Zeitpunkt t1 eine Prämie erhalten oder nicht). Und oft ist den Beschäftigten auch gar nicht klar, welche ihrer Handlungen zu dem Ziel, keinen Unfall zu haben, beitragen. Es mangelt also an der Operationalisierung der Verhaltensweisen, die zum Ziel „Unfallfreiheit“ führen.

Es wäre also besser, Anreize unmittelbar für ganz konkretes Verhalten zu vergeben. Beim Akkordlohn funktioniert das recht gut: Je mehr Teile ich produziere, desto mehr Geld bekomme ich. Will man komplexere Tätigkeiten mit Anreizen fördern, wird es etwas komplizierter, es ist aber immer noch machbar, wie die Arbeiten von William Abernathy (Abernathy, 1990, 1996, 2014) zeigen. Doch gibt es viele Fallstricke, die man vermeiden muss, damit die erwünschte Wirkung eintritt. Zumeist haben diese mit den Problemen der Aufrechterhaltung und der Generalisation der Verhaltensänderung zu tun.

Was die Aufrechterhaltung angeht, darf man sich die Vergabe von Anreizen nicht wie eine Art Gehirnoperation vorstellen: Der Mitarbeiter erhält einmalig einen Anreiz und verändert sein Verhalten dann dauerhaft. Menschen passen sich den Bedingungen, unter denen sie sich verhalten, an. Fällt ein Anreiz weg und sind die Bedingungen dann wieder genauso wie zuvor, wird auch das Verhalten wieder genauso wie zuvor auftreten. (Die Befürchtung, Anreize könnten die Motivation der Mitarbeiter dauerhaft beschädigen – also dazu führen, dass sie nach Wegfall des Anreizes nicht genauso viel, sondern dauerhaft weniger tun als vor der Vergabe des Anreizes – ist übrigens ein Mythos (Cameron, Banko & Pierce, 2001), auch wenn dieser von einigen Autoren hartnäckig wiedergekäut wird, siehe hierzu auch diesen Beitrag). Daraus folgt: Entweder man vergibt den Anreiz auf Dauer oder man überlegt sich, wie man den Anreiz wieder wegnehmen kann. In der Verhaltensanalyse bedeutet dies: Der geplante Anreiz soll, wenn das möglich ist, nach und nach durch natürliche Verstärkung (Ferster, 1967) ersetzt werden. Unter natürlicher Verstärkung versteht man die Folgen eines Verhaltens, die dieses aufrechterhalten, ohne dass jemand explizit auf das Verhalten Einfluss nimmt. Bringt man den Mitarbeitern, unterstützt durch ein Anreizsystem, z. B. bei, sich häufiger kundenfreundlich zu verhalten (z. B. Vergason & Gravina, 2020), kann dies dazu führen, dass die Interaktionen zwischen Beschäftigten und Kundinnen allgemein angenehmer verlaufen (z. B., der Kunde bedankt sich öfters beim Mitarbeiter). Das Bedanken des Kunden ist dann ein natürlicher Verstärker, der das kundenfreundliche Verhalten des Mitarbeiters auch ohne Intervention des Betriebes aufrechterhält. Ebenso kann ein verändertes Vorgesetztenverhalten (z. B. mehr auf positive Aspekte des Mitarbeiterverhaltens zu achten und dieses anzuerkennen) als natürlicher Verstärker wirken (wobei man wiederum fragen muss, was als natürlicher Verstärker für das veränderte Vorgesetztenverhalten wirken soll). Leider kann man sich aber nicht darauf verlassen, dass diese natürliche Verstärkung in jedem Fall auch eintritt. Man muss planen und korrigieren, wenn der erwünschte Effekt nicht eintritt.

Mit Generalisation ist gemeint, dass das (initial durch den Anreiz) verändert Verhalten nicht nur in einer bestimmten Situation eintritt und dass nicht nur dieses ganz spezielle Verhalten, sondern auch ähnliche Verhaltensweisen sich verändern. Bei Behavior Based Safety (BBS) werden beispielsweise meist nur wenige Verhaltensweisen der Mitarbeiter beobachtet und verstärkt. Je nach Design des BBS-Systems verändern sich aber auch andere Verhaltensweisen der Mitarbeiter hin zu sicherem Verhalten. Würde diese Generalisation nicht eintreten, wäre die Wirkung von BBS auf die Zahl der Arbeitsunfälle sehr begrenzt. Doch tritt Generalisation nicht automatisch und selbstverständlich ein. Es gibt Faktoren, die die Generalisation behindern (bspw. ein sehr rigides Vorgehen beim Training neuen Verhaltens) und solche, die sie fördern, z. B. ein variantenreicheres Training, oder aber, bei BBS eine stärkere Einbeziehung der Mitarbeiter in die Ausgestaltung des Trainings, insbesondere beim Festlegen von Zielen (siehe auch Stokes & Baer, 1977).

Das Problem mit Anreizen ist weniger, dass sie nicht wirken würden (sie wirken), sondern die Vorstellung, man könne sie im Arbeitsleben wie im Hundetraining als „Leckerli“ einsetzen. – Selbst im Hundetraining gilt es viele Rahmenbedingungen zu beachten, damit das Leckerli auch wirkt (Pryor, 2006). – Oder, wie der bereits zitierte Aubrey Daniels es ausdrückt: Wenn Sie denken, das ist einfach, dann machen Sie etwas falsch.

Literatur

Abernathy, W. B. (1990). Designing and Managing an Organization-Wide Incentive Pay System. W. B. Abernathy and Associates.

Abernathy, W. B. (1996). The sin of wages : where the conventional pay system has led us and how to find a way out. PerfSys Press.

Abernathy, W. B. (2014). Beyond the Skinner Box: The Design and Management of Organization-Wide Performance Systems. Journal of Organizational Behavior Management, 34(4), 235-254. https://doi.org/10.1080/01608061.2014.973631

Cameron, J., Banko, K. M., & Pierce, W. D. (2001). Pervasive negative effects of rewards on intrinsic motivation: The myth continues. The Behavior Analyst, 24(1), 1-44. https://doi.org/10.1007/bf03392017

Daniels, A. C., & Bailey, J. S. (2016). Performance Management: Changing Behavior that Drives Organizational Effectiveness (Fifth edition, revised. ed.). Performance Management Publications.

Ferster, C. B. (1967). Arbitrary and natural reinforcement. The Psychological REcord, 17(3), 341-347.

Pransky, G., Snyder, T., Dembe, A., & Himmelstein, J. A. Y. (1999). Under-reporting of work-related disorders in the workplace: a case study and review of the literature. Ergonomics, 42(1), 171-182. https://doi.org/10.1080/001401399185874

Probst, T. M., & Estrada, A. X. (2010). Accident under-reporting among employees: Testing the moderating influence of psychological safety climate and supervisor enforcement of safety practices. Accident Analysis & Prevention, 42(5), 1438-1444. https://doi.org/10.1016/j.aap.2009.06.027

Pryor, K. (2006). Positiv bestärken – sanft erziehen. Franckh-Kosmos.

Stokes, T. F., & Baer, D. M. (1977). An implicit technology of generalization. Journal of Applied Behavior Analysis, 10(2), 349-367. https://doi.org/10.1901/jaba.1977.10-349

Thorndike, E. L. (1927). The law of effect. The American Journal of Psychology, 39, 212-222. https://doi.org/10.2307/1415413

Vergason, C. M., & Gravina, N. E. (2020). Using a guest- and confederate-delivered token economy to increase employee–guest interactions at a zoo. Journal of Applied Behavior Analysis, 53(1), 422-430. https://doi.org/10.1002/jaba.599

Hinterlasse einen Kommentar

Eingeordnet unter BBS, OBM, Psychologie, Verhaltensanalyse

Der Marshmallow-Test: Kein Beleg für „Selbstkontrolle“

Der Marshmallow-Test von Mischel und anderen (Mischel, 1958; Mischel & Grusec, 1966; Shoda, Mischel & Peake, 1990) soll einen Zusammenhang zwischen der Fähigkeit, im Alter von vier Jahren Selbstkontrolle zu demonstrieren und späterer kognitiver Leistung und dem Schulerfolg belegen. Kinder im Alter von vier Jahren wurden vor die Wahl gestellt, entweder jetzt ein Marshmallow zu essen oder auf das eine Marshmallow zu verzichten und dann später mehrere Marshmallows zu erhalten. Laut Mischel besteht ein starker Zusammenhang zwischen der Bereitschaft, auf das eine Marshmallow sofort zugunsten der mehreren Marshmallows in der Zukunft zu verzichten und den kognitiven Fertigkeiten im Jugendalter. Kinder, die mit vier Jahren solcherart „Selbstkontrolle“ unter Beweis stellen, schneiden im Jugendalter besser in der kognitiven Leistungsfähigkeit und den sozialen Kompetenzen ab, sie erzielen bessere Schulnoten und kommen besser mit Stress und Frustrationen zurecht (Mischel, Shoda & Rodriguez, 1989).

Eine systematische Replikation dieses bekannten Versuchs durch Watts, Duncan und Quan (2018) zeigte, dass dieser Zusammenhang wesentlich schwächer ist, als in der Originalstudie berichtet. Zudem muss man vor allem den familiären Hintergrund der Kinder berücksichtigen. Es scheint eher so zu sein, dass wohlhabende Kinder sowohl den Marshmallow-Test gut bestehen, als auch später allgemein besser abschneiden. Umgangssprachlich formuliert: Reiche Kinder haben gelernt, dass sie jederzeit so viel Marshmallows haben können, wie sie wollen. Da keine Gefahr besteht, müssen sie das eine Marshmallows auch nicht schnell essen und können darauf vertrauen, tatsächlich in der Zukunft mehr Marshmallows zu haben. Wir sehen wieder mal: Konfundierende Variablen sind überall und Prädiktoren sind nicht notwendigerweise Ursachen.

Die Studien stehen in einer Reihe von vielen Versuchen, die Mischel mit Kindern zum Thema Selbstkontrolle durchführte. So untersuchte er schon vor dem berühmten Marshmallow-Test (Shoda et al., 1990) die Selbstkontrolle bei Kindern. Er ließ Kinder zwischen einem weniger beliebten Verstärker, den sie sofort haben konnten und einem attraktiveren Verstärker, für den sie eine Weile warten mussten, wählen. Mischel quantifizierte die Selbstkontrolle über die Zeit, die das Kind in der Lage war zu warten. Das Kind hatte einen Klingelknopf, den es betätigen konnte, wenn es den weniger attraktiven Verstärker haben wollte. Wartete es bis zum Ende der Zeitspanne, erhielt es den attraktiveren Verstärker. Grosch und Neuringer (1981) replizierten Mischels Untersuchungsparadigma mit Tauben. Die Tauben lernten, dass sie einen attraktiveren Verstärker erhalten konnten, wenn sie eine bestimmte Zeitspanne lang warteten. Pickten sie zuvor auf einen Schalter, erhielten sie einen weniger attraktiven Verstärker. Grosch und Neuringer (1981) führten diesen Versuch in verschiedenen Varianten (die auch Mischel verwendet hatte) durch, so unter anderem wenn die Verstärker in der Untersuchungssituation zu sehen waren oder nicht, sie variierten die Wartezeit und die frühere Erfahrung der Tauben mit dem Untersuchungsparadigma. Die Ergebnisse waren in jedem Fall symmetrisch zu den Ergebnissen, die Mischel mit Kindern erzielte.

Mischels Paradigma ist gekennzeichnet durch die mentalistische Vorstellung, es gäbe eine, möglicherweise angeborene, innere Willenskraft, die Menschen voneinander unterscheide. Menschen mit größerer Willensstärke erreichen demnach mehr im Leben. Die Empirie und insbesondere die Replikationsstudie von Watts et al. (2018) zeigt jedoch, dass es eher die Umweltfaktoren sind, die Verhalten, welches wir als ein Ausdruck von Selbstkontrolle betrachten, kontrollieren.

Literatur

Grosch, J., & Neuringer, A. (1981). Self-control in pigeons under the Mischel paradigm. Journal of the Experimental Analysis of Behavior, 35(1), 3-21. https://doi.org/10.1901/jeab.1981.35-3

Mischel, W. (1958). Preference for delayed reinforcement: An experimental study of a cultural observation. Journal of Abnormal Psychology, 56(1), 57-61. https://doi.org/10.1037/h0041895

Mischel, W., & Grusec, J. (1966). Determinants of the rehearsal and transmission of neutral and aversive behaviors. Journal of Personality and Social Psychology, 3(2), 197-205. https://doi.org/10.1037/h0022883

Mischel, W., Shoda, Y., & Rodriguez, M. L. (1989). Delay of gratification in children. Science, 244(4907), 933-938. https://doi.org/10.1126/science.2658056

Shoda, Y., Mischel, W., & Peake, P. K. (1990). Predicting adolescent cognitive and self-regulatory competencies from preschool delay of gratification: Identifying diagnostic conditions. Developmental Psychology, 26(6), 978-986. https://doi.org/10.1037/0012-1649.26.6.978

Watts, T. W., Duncan, G. J., & Quan, H. (2018). Revisiting the marshmallow test: A conceptual replication investigating links between early delay of gratification and later outcomes. Psychological Science, 29(7), 1159-1177. https://doi.org/10.1177/0956797618761661

4 Kommentare

Eingeordnet unter Entwicklung, Psychologie, Verhaltensanalyse

Der bedeutendste Psychologe des 20. Jahrhunderts

Wer ist der bedeutendste Psychologe des 20. Jahrhunderts? Wenn Sie dieses Blog kennen, ahnen Sie, wie die Antwort lautet. Ob das relevant ist, muss jeder für sich beantworten. Wenn man es aber wissen will, gibt es mehr oder weniger objektive Möglichkeiten, das herauszufinden.

Haggbloom et al. (2002) versuchen, einen Liste der „bedeutendsten“ Psychologen des 20. Jahrhunderts zu erstellen. Sie zeigen sich sehr wohl der Schwierigkeiten eines solchen Unternehmens bewusst: Sowohl die Begriffe „bedeutend“ als auch „Psychologe“ (Freud war kein Psychologe) sind hinterfragbar und der Definition bedürftig. Sie verweisen auf frühere Versuche, eine solche Liste zu erstellen, die alle immer nur ein Kriterium zur Messung der „Bedeutsamkeit“ herangezogen haben. „Bedeutsamkeit“ sei aber, so Haggbloom et al., ein sehr komplexes und multidimensionales Konstrukt, dass sich nicht in nur einem Maß erfassen lasse. Sie entscheiden sich daher, ein ganzes Bündel von Maßstäben heranzuziehen, um so die Schwäche jedes einzelnen Kriteriums auszugleichen. Sie beziehen sich dabei auf drei quantitative und mehrere qualitative Kriterien (die alle schon, wenn auch einzeln, in früheren Studien zur „Bedeutsamkeit“, herangezogen worden waren).

Ihr erstes quantitatives Kriterium ist die Zitierhäufigkeit, wie sie sie aus vier vorhergehenden Zitierlisten errechnen. Diese bezogen sich unter anderem auf Suchen nach der Zitierhäufigkeit in allen im Social Science Citation Index enthaltenen Psychologie-Journalen. Diese Liste führt Sigmund Freud an, gefolgt von Piaget und Eysenck, Skinner kommt erst an achter Stelle. Das zweite Kriterium ist die Häufigkeit, mit der jemand in Einführungen in die Psychologie erwähnt wird. Auch hier führt Freud, gefolgt von Skinner und Bandura. Ihr drittes quantitatives Kriterium sind die Ergebnisse einer Befragung von Mitgliedern der American Psychological Society (APS), die sie per E-Mail angeschrieben hatten. Obgleich die Rücklaufquote recht gering war (5,6%), halten die Autoren diese Liste für repräsentativ, da sich kein denkbarer Grund finden lässt, warum die Antwortenden anders hätten antworten sollen als die Nicht-Antwortenden. In dieser Befragung führt Skinner vor Piaget und Freud. Dies ist insofern aufschlussreich, als dieser Liste ein höhere Stellenwert zuzubilligen ist, denn sie spiegelt auch die fachliche Relevanz besser wieder als die beiden anderen Kriterien: Freud wird häufig zitiert, aber nur noch selten für relevant erachtet. Zudem gleicht die Befragung das Manko aus, dass ältere, am Beginn des Jahrhunderts publizierende Psychologen naturgemäß auch bis jetzt häufiger zitiert werden konnten.

Als qualitative Kriterien ziehen Haggbloom et al heran, ob die Person Präsident der American Psychological Association (APA) war, ob sie von dieser Vereinigung ausgezeichnet wurde, ob sie einen National Sciences Award erhielt und ob ein Begriff nach ihrem Namen geprägt wurde (wie z.B. „Skinner-Box“ oder „Freudianer“).

Alle diese Listen transformierten die Autoren mittels eines mathematischen Verfahrens (Logarithmisierung des Rangplatzes und z-Wert-Transformation) in eine einzige, die einen zusammengesetzten Wert der Bedeutsamkeit darstellte. Diese Liste nun führt Skinner an, gefolgt von Piaget und Freud.

Als Zweck der ganzen Übung geben Haggbloom et al an, dass sich diese Liste in der psychologisch-historischen Forschung sowie im Psychologie-Unterricht verwenden ließe.

Haggbloom, S. J., Warnick, R., Warnick, J. E., Jones, V. K., Yarbrough, G. L., Russell, T. M., Borecky, C. M., McGahhey, R., Powell, J. L., III, Beavers, J., & Monte, E. (2002). The 100 most eminent psychologists of the 20th century. Review of General Psychology, 6(2), 139-152. https://doi.org/10.1037/1089-2680.6.2.139

PS: Soweit ich weiß, sind die Autorinnen und Autoren keine Behavioristen und die Review of General Psychology ist keine behavioristische Zeitschrift.

2 Kommentare

Eingeordnet unter Geschichte, Psychologie

Der Stroop-Effekt aus verhaltensanalytischer Sicht

Der Stroop-Effekt (Stroop, 1935) lässt sich recht einfach demonstrieren (McLeod, 1992). Die Versuchsperson bekommt eine Liste mit Farbwörtern, die jedoch in anderen Farben gedruckt sind (zum Beispiel ist das Wort „Rot“ in der Farbe Blau gedruckt). Bittet man die Versuchsperson, die Wörter vorzulesen, gelingt ihr das wesentlich leichter und schneller als wenn man sie bittet, die Farben der einzelnen Wörter zu benennen. Durch Übung lässt sich die Leistung im Stroop-Test verbessern, der Effekt jedoch nicht gänzlich beseitigen. Die Datenbank PsychInfo listete im Jahr 2015 fast 5000 Publikationen auf, die die ursprüngliche Arbeit von Stroop (1935) zitieren. Der Stroop-Effekt wird zumeist als ein Konflikt zwischen kognitiver Kontrolle und Stimuluskontrolle des Verhaltens beschrieben. Für jedes Farbwort im Stroop-Test gibt es eine leicht auslösbare Reaktion, nämlich das Wort vorzulesen. Die Farben, in denen die Wörter gedruckt sind, sind dagegen mit vielen verschiedenen Verhaltensweisen assoziiert. Die Farbe Braun etwa ist zum einen mit dem Verhalten „Braun“ zu sagen, verbunden, sie ist gleichfalls aber mit Reaktionen wie „Leder“, „Schokolade“, „Holz“, „Kacka“ usw. assoziiert. Wenn man irgendwo die Farbe Braun sieht, sagt man eben nicht unbedingt „Braun“, sondern zumeist etwas anderes. Sieht man dagegen den Schriftzug „Braun“, ist die Reaktion „Braun“ zu sagen, so ziemlich die einzige Reaktion, die zu Verstärkung führt. Der Stroop-Effekt lässt sich sogar bei Schimpansen nachweisen. Beran et al. (2007) untersuchten eine Schimpansin, die verschiedene Lexigramme gelernt hatte unter anderem solche, die Farben bezeichneten. Die Äffin konnte verschiedene Reize nach ihrer Farbe sortieren, machte aber deutlich mehr Fehler, wenn sie als Reize die Lexigramme sortieren sollte, die in inkongruenten Farben vorlagen (zum Beispiel das Lexigram für Gelb in blauer Farbe). Der Stroop-Effekt tritt auch bei anderen Kombinationen auf. Washburn (1994) berichtet von einem Versuch mit Rhesusaffen, die gelernt hatten, die größere von zwei oder mehr arabischen Ziffern zu wählen. Den Affen wurde bspw. eine „4“ und eine „5“ auf einem Bildschirm präsentiert. Berührte der Affe die 5, erhielt er fünf Futterpellets, berührte er die 4, erhielt er nur vier Futterpellets. Auf diese Weise hatten die Affen gelernt, die größere Zahl zu wählen. Die gleichen Tiere lernten auch relativ leicht, anzuzeigen, auf welcher Seite des Bildschirms sich mehr Objekte der gleichen Art befanden (zum Beispiel vier „A“s und fünf „C“s). Wurden ihnen nun statt der Buchstaben arabische Zahlen präsentiert, gelang ihnen die Aufgabe wieder relativ leicht, wenn die höhere Zahl auch häufiger vorkam. War dies jedoch nicht der Fall (handelte es sich z. B. um drei „5“ und zwei „6“), benötigten Sie wesentlich länger und machten mehr Fehler. Dabei zeigt sich (Washburn, 2016), dass dieser Effekt um so ausgeprägter ist, je länger das Erkennen höherer Zahlen geübt worden war (je höher also die Reaktionsstärke für das Antippen der höheren Zahl war). Diese Variante des Stroop-Effekts ließ sich auch bei Menschen demonstrieren. Auch diese benötigten länger, um anzuzeigen, wo sich mehr Zahlsymbole befanden, wenn die höherwertigen Zahlen seltener vorkamen, allerdings machten sie dabei kaum Fehler, vermutlich, weil die Reaktion sprachlich unterstützt, regelgeleitet (z. B. durch stilles Zählen der Zahlen), erfolgte (was den Affen nicht möglich sein dürfte).

Literatur

Beran, M. J., Washburn, D. A., & Rumbaugh, D. M. (2007). A Stroop-like effect in color-naming of color-word lexigrams by a chimpanzee (Pan troglodyte). The Journal of General Psychology, 134(2), 217-228. https://doi.org/10.3200/GENP.134.2.217-228

MacLeod, C. M. (1991). Half a century of research on the Stroop effect: An integrative review. Psychological Bulletin, 109(2), 163-203. https://doi.org/10.1037/0033-2909.109.2.163

Stroop, J. R. (1935). Studies of interference in serial verbal reactions. Journal of Experimental Psychology, 18(6), 643-662. https://doi.org/10.1037/h0054651

Washburn, D. A. (2016). The Stroop effect at 80: The competition between stimulus control and cognitive control. Journal of the Experimental Analysis of Behavior, 105(1), 3-13. https://doi.org/10.1002/jeab.194

Hinterlasse einen Kommentar

Eingeordnet unter Geschichte, Psychologie, Stimuluskontrolle, Verhaltensanalyse

Wie „radikal“ ist der Radikale Behaviorismus?

B. F. Skinners Variante des Behaviorsimus wird als „Radikaler Behaviorismus“ bezeichnet. Doch was bedeutet „radikal“ in diesem Zusammenhang? Schneider und Morris (1987) geben einen Überblick über die Verwendung des Begriffs „radikal“ im Zusammenhang mit dem Behaviorismus.

Es ist interessant, dass die Behauptung, Behavioristen leugneten, dass es ein Bewusstsein gibt, haufenweise bei Nicht-Behavioristen zu finden ist, aber kaum bei den (prominenten) Behavioristen selbst. Behavioristen wie Watson und Skinner leugnen nicht, dass es etwas gibt, das wir als Bewusstsein bezeichnen. Doch sprechen sie dem Bewusstsein den Charakter eines Dings ab – das Bewusstsein ist ein Konstrukt, oder, genauer, wenn wir das Wort Bewusstsein verwenden, verhalten wir uns verbal in Bezug auf unser eigenes Verhalten.

Der Begriff „radical“ kann im Englischen mehrere Bedeutungen haben, nämlich extrem, gründlich, bilderstürmerisch und politisch. In den Bedeutungen „extrem“ und „bilderstürmerisch“ wurde Watsons Behaviorismus schon früh (von Nicht-Behavioristen) als „radikal“ bezeichnet, z. B. 1921 von Calkins, der Watson unterstellt, er leugne oder ignoriere das, was wir als mentale Phänomene kennen. „Extreme behavioristic psychology denies or ignores what are known as mental phenomena“ (Calkins, 1921, S. 1; vgl. auch S. 4). Auch als radikal im Sinne von „politisch extrem“ wurde der Behaviorismus Watsons schon bald bezeichnet, oft als links-extrem, aber ebenso auch als rechts-extrem. Watson selbst bezeichnete seine Form des Behaviorismus nie als „radikal“.

Skinner (1945/1984) bezeichnete seine Form des Behaviorismus erstmals 1945 als „radikal“, im Sinne von „gründlich“ (thoroughgoing). Er grenzt ihn v. a. vom methodologischem Behaviorismus ab. Sehr viele Psychologen, die sich selbst nie als Behavioristen bezeichnen würden, kann man als methodologische Behavioristen betrachten (vgl. Brunswik, 1952, S. 66-67; Day, 1980, S. 241; Leahey, 1984, S. 131-132; Marx & Hillix, 1979, S. 160). „[E]ven some present-day psychologists who might not call themselves behaviorists, could be considered to be behaviorists of this sort” (Schneider & Morris, 1987, S. 33). Skinners Behaviorismus ist insofern radikal, als er (im Gegensatz zum methodologischen Behaviorimus) auch die privaten Ereignisse und das verdeckte Verhalten behandelt und keinen prinzipiellen Unterschied zwischen offenem Verhalten, das von Außen beobachtet werden kann (wie Gehen, Reden etc.), und verdecktem Verhalten, das nur die Person selbst bei sich feststellen kann (wie Denken, Fühlen etc.), anerkennt. Zuriff (1984) erläutert dies: „What distinguishes Skinner from … other behaviorists is not his legitimization of private events but the fact that he provides the most coherent account of how these events come to function as stimuli for verbal behavior“ (S. 572).

Skinners und Watsons Behaviorismus verbindet einiges. Vom methodologischen Behaviorismus sind ihre beiden Positionen meilenweit entfernt.

Literatur

Brunswik, E. (1952). The conceptual framework of psychology. Chicago: University of Chicago.

Calkins, M. W. (1921). The truly psychological behaviorism. Psychological Review, 28, 1-18. https://doi.org/10.1037/h0072853

Day, W. F., Jr. (1980). The historical antecedents of contemporary behaviorism. In R. W. Rieber & K. Salzinger (Eds.), Psychology: Theoretical-historical perspectives (pp. 203-262). New York: Academic.

Leahey, T. H. (1984). Behaviorism. In R. J. Corsini (Ed.), Encyclopedia of psychology (Vol. 1, pp. 130-133). New York: Wiley.

Marx, M. H. & Hillix, W. A. (1979). Systems and theories in psychology (3rd ed.). New York: McGraw-Hill.

Schneider, S. M., & Morris, E. K. (1987). A history of the term Radical Behaviorism. From Watson to Skinner. The Behavior Analyst, 10(1), 27-39. https://doi.org/10.1007/BF03392404

Skinner, B. F. (1945/1984). The operational analysis of psychological terms. Behavioral and Brain Sciences, 7(04), 547-581. https://doi.org/10.1017/S0140525X00027187

Zuriff, G. E. (1984). Radical behaviorism and theoretical entities. The Behavioral and Brain Sciences, 7, 572. https://doi.org/10.1017/S0140525X00027394

Ein Kommentar

Eingeordnet unter Geschichte, Philosopie, Psychologie, radikaler Behaviorismus, Verhaltensanalyse

Kann man seine Persönlichkeit verändern?

Kurze Antwort: Es kommt darauf an, was man unter „Persönlichkeit“ versteht und es kommt darauf an, wie man vorgeht.

Die meisten Menschen wollen irgendwie anders sein, als sie sind. In den USA wollen (Hudson & Roberts, 2014) 87 % der Menschen extravertierter sein und 97 % gewissenhafter sein als sie gegenwärtig sind. Diese Menschen geben jährlich Milliardenbeträge für Bücher, Videos und Seminare aus, die versprechen, ihnen dabei zu helfen, anders zu werden.

Aber kann man seine Persönlichkeit überhaupt verändern? Einige Forscher (McCrae & Costa, 2008) meinen, dass Persönlichkeitseigenschaften biologisch bedingt und mehr oder weniger unveränderlich sind. Dennoch verändern sich Persönlichkeiten aufgrund von Lebenserfahrungen. Mit dem Alter werden Menschen für gewöhnlich reifer. Wir werden verträglicher, gewissenhafter und emotional stabiler. Wenn wir z. B. nach dem Studium eine Arbeit aufnehmen, werden wir gewissenhafter. Wenn wir eine glückliche Beziehung beginnen, werden wir emotional stabiler. Der Grund für diese Veränderung liegt in den geänderten Kontingenzen, denen wir nun unterliegen. Wer seinen Job behalten will, muss gewissenhaft sein: Gewissenhaftes Verhalten wird bei Menschen, die arbeiten, ganz anders verstärkt, als bei Menschen, die keinen Job haben. Um eine Beziehung, an der einem etwas liegt, aufrecht zu erhalten, muss man verlässlich und emotional stabil sein. Die sozialen Rollen, die wir einnehmen, beeinflussen, wie wir uns selbst – z. B. in einem Persönlichkeitsfragebogen – beschreiben.

Was tun Menschen, wenn sie ihre Persönlichkeit verändern wollen? Quinlan et al. (2006) fanden z. B., dass Studenten, die befürchteten, langweilig zu sein, häufiger übermäßig Alkohol konsumierten. Welche Strategien sind nun aber wirklich erfolgreich, wenn man seine Persönlichkeit verändern möchte?

Hudson und Fraley (2015; siehe auch 2017) testeten experimentell, ob es ihren 135 Versuchspersonen über vier Monate hinweg gelang, ihre Persönlichkeit zu verändern. Eine Gruppe (die Kontrollgruppe) sollte einfach nur angeben, wie sie sich verändern wollte. Eine andere Gruppe (der Experimentalgruppe) von Versuchspersonen sollte sich einen Veränderungsplan machen. Diese Intervention erwies sich jedoch als wenig hilfreich. Die Versuchspersonen der Experimentalgruppe konnten sich kaum besser verändern als die Versuchspersonen der Kontrollgruppe. Die Autoren machten als Ursache für das Scheitern der Veränderungsbemühungen aus, dass die Versuchspersonen sich selbst zumeist nur vage Veränderungsziele setzten (wie etwa „Ich möchte positiver denken“). Daher änderten sie in einem zweiten Versuch mit 151 neuen Versuchspersonen den Interventionsplan ab. Die Versuchspersonen der Experimentalgruppe wurden nun angehalten, sich verhaltensbezogene Ziele zu setzen, deren Einhaltung sie täglich kontrollieren konnten (z. B. „Ich möchte jeden Tag mindestens dreimal jemand Fremden ansprechen“). Je konkreter und objektiver die Ziele waren, desto besser gelang den Versuchspersonen die Persönlichkeitsveränderung.

Verhaltensanalytiker verstehen unter „Persönlichkeit“ überdauernde Verhaltensmuster. Die Persönlichkeit ist wie ein Pfad, der durch das ständige Benutzen entsteht. Wenn ich mich überdauernd extravertierter benehme, werde ich auch extravertierter. Man kann also seine Persönlichkeit (in gewissen Grenzen) willentlich verändern, aber nur, wenn man sich spezifische und verhaltensbezogene Ziele setzt. Letztlich bewirkte die Instruktion in der Untersuchung von Hudson und Fraley (2015), dass die Versuchspersonen sowohl ihr offenes, nicht-sprachliches Verhalten als auch ihr sprachliches Verhalten (in der Selbstbeschreibung im Persönlichkeitsfragebogen) veränderten. Nach allem, was wir wissen, entspricht diese Summe an Veränderungen im sprachlichen und im nicht-sprachlichen Verhalten, wenn sie mittelfristig stabil ist, einer Persönlichkeitsänderung.

Literatur

Hudson, N. W., & Fraley, R. C. (2015). Volitional personality trait change: Can people choose to change their personality traits? Journal of Personality and Social Psychology, 109(3), 490-507. https://doi.org/10.1037/pspp0000021

Hudson, N. W., & Fraley, R. C. (2017). Volitional personality change. In J. Specht (Ed.), Personality Development Across the Lifespan (pp. 555-571). Academic Press. https://doi.org/10.1016/b978-0-12-804674-6.00033-8

Hudson, N. W. & Roberts, B. W. (2014). Goals to change personality traits: Concurrent links between personality traits, daily behavior, and goals to change oneself. Journal of Research in Personality, 53, 68-83. https://doi.org/10.1016/j.jrp.2014.08.008

McCrae, R. R. & Costa, P. T. (2008). The five-factor theory of personality. In O. P. John, R. W. Robins & L. A. Pervin (Eds.), Handbook of Personality: Theory and Research (3rd ed., pp. 150-181). New York: Guilford Press.

Quinlan, S. L.; Jaccard, J. & Blanton, H. (2006). A decision theoretic and prototype conceptualization of possible selves: Implications for the prediction of risk behavior. Journal of Personality, 74, 599-630. https://doi.org/10.1111/j.1467-6494.2006.00386.x

Hinterlasse einen Kommentar

Eingeordnet unter leichte Kost, Psychologie, Sprache, Verhaltensanalyse

Warum die Psychologie ihre Versprechen nicht einlösen konnte

Die Psychologie wird als Wissenschaft oft nicht so ganz für voll genommen. Hank Schlinger (2004) meint, dass dies vor allem daran liegt, dass die Psychologie nicht die in sie gesetzten Erwartungen erfüllen konnte. Auch viele prominente Psychologinnen und Psychologen sind der Ansicht, dass die Psychologie mehr versprach, als sie halten konnte. Tatsächlich kann die Psychologie wenige bemerkenswerte Entdeckungen und wenig zufriedenstellende Erklärungen vorweisen. Die Hauptursache hierfür ist laut Schlinger (2004) die Betonung des Geistes anstelle des Verhaltens. Im Gegensatz zu den Naturwissenschaften (wie Biologie oder Chemie) hat sich die Psychologie methodisch den Sozialwissenschaften mit ihren Prinzipien der Hypothesentestung und den Methoden der Inferenzstatistik angeschlossen.

Wissenschaften sollten zwei Ziele anstreben: Sie sollten uns dazu befähigen, die physische und biologische Welt beeinflussen zu können. Die Naturwissenschaften können dies oft, wie man an Impfungen, Antibiotika, Halbleitern und vielen anderen technischen Errungenschaften erkennen kann. Ein zweites Ziel der Wissenschaften besteht darin, Erklärungen für die Komplexität der Welt zu liefern, die elegant und befriedigend sind.

In der Psychologie gibt es keinen einheitlichen Erklärungsrahmen. Die Psychologie gibt das Bild einer Ansammlung von Subdisziplinen, die nicht durch ein gemeinsames Prinzip geeint werden. Hinzu kommt das vorwissenschaftliche Vokabular der Psychologen, mit solchen Ausdrücken wie Geist, Gedächtnis, Denken und Bewusstsein. Mit diesen Begriffen schlagen sich Psychologen und Philosophen schon seit vielen Jahrhunderten, man muss sagen, ohne Erfolg, herum.

Wissenschaften sollen nach gängiger Auffassung drei Aufgaben erfüllen: Sie sollen den ihnen zugewiesenen Realitätsbereich objektiv erfassen und messen können, sie sollen ihn experimentell kontrollieren können und sie sollen Voraussagen bezüglich dieses Realitätsbereiches treffen können.

Das von den meisten Psychologen genannte Aufgabengebiet der Psychologie, der ihr zugewiesenen Realitätsbereich, soll der Geist sein. Doch schon dieser Realitätsbereich entzieht sich dem Ziel der objektiven Beobachtung und Messung. Die Psychologie als Wissenschaft kann ihre (selbst dazu erklärte) abhängige Variable, die Kognitionen, weder beobachten noch messen. Daraus leitet sie die Vorgehensweise ab, offen sichtbares Verhalten nur deshalb zu untersuchen, um daraus Rückschlüsse auf kognitive Ereignisse zu ziehen.

Beispielsweise gehen die meisten Psychologen davon aus, dass der Begriff Gedächtnis sich auf eine Ansammlung von kognitiven Prozessen bezieht (z. B. das Codieren, Speichern und der Abruf von Informationen). Doch welche Prozesse und Strukturen machen nun in ihrer Gesamtheit das Gedächtnis aus? Kognitive Psychologen schließen allein aufgrund des beobachteten offenen Verhaltens auf die Strukturen und Prozesse des Gedächtnisses. Wenn ich auf der Straße einen alten Bekannten treffe und in der Lage bin, diesen mit seinem Namen zu begrüßen, greife ich aus dieser Sicht auf meine abgespeicherte Erinnerung an den Freund zurück. Doch ist dies lediglich eine zirkuläre oder gar tautologische Erklärung für das schlichte Verhalten, dass ich den Namen meines Freundes sage, wenn ich ihn sehe.

Die Rede vom Geist führt auch zu einem unrettbar dualistischen Denken. Wie soll ein nicht materieller Geist das Gehirn beeinflussen und umgekehrt? Gelegentlich wird beteuert, jede Kognition sei letztlich das Ergebnis einer neurologischen Aktivität. Doch was ist dann die Kognition, wenn sie nicht Verhalten ist? Die Psychologie muss diese Antwort schuldig bleiben. Die meisten Begriffe innerhalb der Psychologie sind ihrem Wesen nach metaphorisch: kognitive Landkarten, Engramme, Kodierung, Abruf, sensorisches Register und Speicher. Dummerweise erfordert jedes kognitive Element in der Erklärung des offenen Verhaltens eine weitere Erklärung oder Rechtfertigung. Jeder neue Begriff muss letztendlich in der Währung physikalischer, biologischer oder verhaltensbezogene Ereignisse bezahlt werden. Die Psychologie verhält sich, so Palmer (2003), wie jemand, der seine Kreditkartenschulden begleicht, indem er eine andere Kreditkarte belastet. Dadurch wird die Erklärungslast der kognitiven Psychologie nur vermehrt, nicht reduziert.

Wenn ich beispielsweise den Namen meines Freundes ausspreche, wenn ich ihn sehe, wird gesagt, dass ich mich an seinen Namen erinnere, dass ich ihn wahrnehme oder wiedererkenne oder aber, dass ich eine Vorstellung von ihm habe, Wissen über ihn oder eine Repräsentation von ihm. In diesem Beispiel sollen das Gedächtnis, die Wahrnehmung, dass Wiedererkennen oder die Vorstellung unterschiedliche kognitive Prozesse sein. Doch der Beleg dafür, dass diese kognitiven Prozesse existieren, ist immer der gleiche: dass ich den Namen meines Freundes sage, wenn ich ihn sehe (S. 128). Man könnte das gleiche Verhalten auf wesentlich sparsamere Art und Weise erklären, indem man sich auf bereits experimentell wohl bestätigte Prinzipien des Verhaltens bezieht. (Schlinger, 1992)

Die Psychologie rechtfertigt dieses Vorgehen oft damit, dass auch andere Wissenschaften über das Beobachtbare hinausgegangen und dadurch fortgeschritten sind. So erkannte Newton, dass der Mond eine Gravitationskraft auf das Meer ausübt und so die Gezeiten verursacht. Er erkannte dies, weil er es bei kleineren Objekten experimentell untersuchen konnte. Doch Psychologen gehen anders vor: Sie messen eine bestimmte Art von Ereignissen (Verhalten) mit der Absicht, über Ereignisse einer ganz anderen Natur (Kognitionen) zu sprechen. Astronomen befolgen das Prinzip der Sparsamkeit, indem sie Ereignisse, die sie nicht direkt untersuchen können, mit der geringstmöglichen Anzahl an Annahmen erklären, wobei diese Annahmen im kleineren Maßstab bestätigt werden konnten (im Weltall gelten die gleichen Naturgesetze wie im Physiklabor). Die theoretischen Annahmen von Psychologen dagegen basieren auf Annahmen, die niemals direkt getestet werden können. Solcherart konzentriert sich die Psychologie auf unbeobachtete Ereignisse, ehe sie überhaupt erst einmal versteht, wie die beobachteten Ereignisse zu Stande kommen. Sie zäumen das Pferd von hinten auf. Verhaltensanalytiker gehen umgekehrt vor, wie der Rest der Naturwissenschaftler. Sie beobachten offenes Verhalten, leiten hieraus Gesetzmäßigkeiten ab und nehmen an, dass diese Gesetzmäßigkeiten auch für den nicht-objektiv beobachtbaren Anteil des Verhaltens gelten.

In der Psychologie dagegen gilt das Prinzip, dass beobachtetes Verhalten nur durch den Rückgriff auf unbeobachtbare Prozesse zufriedenstellend erklärt werden könne. Dies führt allerdings dazu, dass die Erklärungen allenfalls metaphorisch sein können. Beispielsweise erklärt man in der Psycholinguistik den „erstaunlichen Umstand“, dass Kinder relativ schnell ihre Muttersprache erlernen können, mit einem besonderen Konstrukt, dem Language Acqusition Device (LAD). Doch kann niemand das LAD beschreiben, geschweige denn erklären und dabei bekannte wissenschaftliche Prinzipien aus der Psychologie oder Biologie heranziehen. Das Problem der kognitiven Psychologie besteht darin, dass das ganze Feld durch und durch metaphorisch ist, weil die abhängige Variable, die Kognitionen, nie beobachtet werden kann. Ironischerweise müssen Psychologen deswegen ihre kognitiven Phänomene immer als beobachtbares Verhalten operationalisieren. Sie tun dies aber nicht, weil sie Verhalten als Forschungsgegenstand von eigener Geltung betrachten (S. 131).

In den meisten psychologischen Experimenten lassen sich keine zuverlässigen funktionalen Beziehungen zwischen der unabhängigen und der abhängigen Variable herstellen, da keine eindeutige experimentelle Kontrolle über die abhängige Variable demonstriert werden kann. Einer der Gründe dafür ist, dass die meisten Experimente mit Gruppen von Versuchspersonen durchgeführt werden, anstatt mit den individuellen Versuchspersonen. Zudem sind die unabhängigen Variablen in der Psychologie oft zu komplex oder nur ungenau definiert, sodass sie sich einer objektiven Untersuchung entziehen. Die Untersuchungsdesigns werden mehr durch die Möglichkeiten der statistischen Analyse vorgegeben, denn durch das Erkenntnisinteresse. In psychologischen Experimenten werden, oft unnötigerweise, Daten von Befragungen und Selbstauskünfte als Messungen akzeptiert, obwohl bekannt ist, dass diese notorisch unzuverlässig sind.

Der Erfolg jeder Wissenschaft hängt davon ab, dass sie in der Lage ist, eindeutige Analyseeinheiten festzulegen. In der Biologie ist das etwa die Zelle. Von wenigen Ausnahmen abgesehen (nämlich in der Verhaltensanalyse) ist die Psychologie nicht in der Lage, solche eindeutigen Analyseeinheiten vorzuweisen.

Watson (1913) wollte die Psychologie am Modell der Naturwissenschaften ausrichten. Aus seiner Form des Behaviorismus gingen im Wesentlichen zwei noch heute aktuelle Formen hervor: der radikale Behaviorismus nach Skinner, der die Grundlage der Verhaltensanalyse bildet und der Neobehaviorismus nach Hull, der sich dem hypothetisch-deduktiven Ansatz verschrieben hat. Der Neobehaviorismus stellt die Grundlage der heute in der Psychologie üblichen Methoden dar. Auch die kognitive Psychologie, die angeblich den Behaviorismus überwunden hat, folgt ihm in methodischer Hinsicht noch immer. Dies hat zur Folge, dass in der Psychologie jedes psychologische Phänomen seine eigene Erklärung oder Theorie hat. Dies steht im Widerspruch zum Vorgehen in den Naturwissenschaften, wo es als ein Qualitätsmerkmal gilt, wenn man mit einer Theorie möglichst viele verschiedene Phänomene erklären kann.

Hinzu kommt der nachgerade vollkommen unverständliche Ansatz, das aggregierte Verhalten einer Gruppe von Versuchspersonen zu untersuchen, anstatt das Verhalten der einzelnen Versuchsperson. Die Unterschiede zwischen den Versuchspersonen werden eingeebnet, statt sie als das eigentlich Untersuchungswürdige zu betrachten. Dies erlaubt den Forschern nicht, das Verhalten von einzelnen Personen vorauszusagen oder gar zu kontrollieren. Wie bereits Skinner (1956) ausgedrückt hat, geht niemand in den Zirkus, um einen durchschnittlichen Hund signifikant öfter durch einen Ring springen zu sehen als einen nicht trainierten Hund. Mit ihrer Skepsis bezüglich des Prinzips der Hypothesentestung in der Psychologie ist die Verhaltensanalyse nicht allein, auch einige Psychologinnen und Psychologen haben dies bemerkt (Loftus, 1991). Erkenntnisfortschritt geschieht oft durch einen Wechsel von Induktion und Deduktion. Doch in der Psychologie hat man sich allein auf die Deduktion konzentriert. Dies hat zur Folge, dass sie sich selbst darin behindern, Bemerkenswertes zu entdecken. Man vergleiche dagegen die Haltung von Skinner (1956): „Wenn du [in deiner Forschung] über etwas Interessantes stolperst, dann lasse alles andere liegen und untersuche es“ (S. 223).

Hinzu kommt, dass es in der Psychologie kaum echte Experimente gibt. In der Regel wird nicht-experimentell geforscht. Die unabhängige Variable in der Psychologie ist daher nicht gleichzusetzen mit der Ursache der abhängigen Variable. Sie ist lediglich ein Prädiktor. Schlinger (2004) zeigt auf, dass viele Experimente in der Psychologie lediglich Demonstrationsexperimente sind. Beispielsweise zeigt die Forschung zur Mutter-Kind-Bindung, dass es einige Kinder gibt, die weinen, wenn ihre Mutter sie mit einem Fremden allein lässt, andere Kinder weinen nicht. Dies wird erklärt über die verschiedenen Bindungstypen. Doch erklärt dies nicht, warum dieses Verhalten auftritt. Die finale Ursache der Bindung ist höchstwahrscheinlich in der Lerngeschichte des Individuums zu suchen. In einem Großteil der Literatur zur Bindungsforschung nutzt man stattdessen mentalistische Konzepte, wie die Erwartungen, die Erinnerung, das interne Arbeitsmodell, um das Verhalten der Kinder im „Fremde-Situations-Test“ erklären.

Ähnliches gilt für die psychologische Forschung zum Stroopeffekt (Stroop, 1935). Dabei werden der Versuchsperson verschiedene Farbwörter (rot, blau, grün usw.) gezeigt, die in unterschiedlichen Farben gedruckt sind. Dabei sind die Wörter oft in einer anderen Farbe gedruckt als es der Bedeutung des Farbwortes entspricht (d. h., das Wort „rot“ ist z. B. in grüner Farbe gedruckt). Die Versuchspersonen beim Stroop-Test sollen nun nicht die Wörter vorlesen, sondern die Farbe angeben, in der das Wort gedruckt ist. Stimmt das Farbwort mit der Druckfarbe über ein, gelingt dies der Versuchsperson schneller, als wenn das Farbwort und die Farbe, in der es gedruckt ist, nicht übereinstimmen. Um diesen gut bestätigten Umstand zu erklären, werden die unterschiedlichsten kognitiven Konstrukte bemüht. Anstatt aber die längere Latenzzeit und die erhöhte Anzahl an Fehlern endgültig zu erklären, demonstrieren die Experimente lediglich das Phänomen immer wieder und zeigen einige Bedingungen auf, unter denen es auftritt. Dabei liegt die Erklärung in der Lerngeschichte der Versuchspersonen. Üblicherweise führt es häufiger zur Verstärkung, wenn wir „rot“ vorlesen, wenn wir das entsprechende Wort sehen. Seltener wird ein Verhalten verstärkt, bei dem man die Druckfarbe, in der ein Wort gedruckt ist, angeben soll. Aus diesem Blickwinkel erscheint der Stroopeffekt theoretisch und praktisch weit weniger interessant, als es die Psychologen glauben. Doch die Psychologen führen zu diesem Effekt noch immer eifrig Forschungen durch, ohne echte Fortschritte zu erzielen (MacLeod, 1991, 1992; Washburn, 2016).

Nach Schlinger (2004) hat die Psychologie bislang allenfalls im Bereich der Beschreibung Fortschritte gemacht, nicht aber, was die anderen Aufgaben von Wissenschaften (Erklären, Voraussagen und Verändern) betrifft. Als Heilmittel empfiehlt er, dass die Psychologie zu einem nicht-mediationalem, nicht-mechanistischen und nicht-dualistischen verhaltensorientierten Ansatz zurückkehrt.

Loftus, G. R. (1991). On the tyranny of hypothesis testing in the social sciences. Contemporary Psychology: A Journal of Reviews, 36(2), 102-105. https://doi.org/10.1037/029395

MacLeod, C. M. (1991). Half a century of research on the Stroop effect: An integrative review. Psychological Bulletin, 109(2), 163-203. https://doi.org/10.1037/0033-2909.109.2.163

MacLeod, C. M. (1992). The Stroop task: The „gold standard“ of attentional measures. Journal of Experimental Psychology: General, 121(1), 12-14. https://doi.org/10.1037/0096-3445.121.1.12

Palmer, D. C. (2003). Cognition. In K. A. Lattal & P. N. Chase (Eds.), Behavior theory and philosophy. (pp. 167-185). Kluwer Academic/Plenum Publishers. https://doi.org/10.1007/978-1-4757-4590-0_9

Schlinger, H. D. (1992). Theory in behavior analysis: An application to child development. American Psychologist, 47(11), 1396-1410. https://doi.org/10.1037/0003-066x.47.11.1396

Schlinger, H. D. (2004). Why psychology hasn’t kept its promises. Journal of Mind and Behavior, 25(2), 123-144. https://www.jstor.org/stable/43854026

Skinner, B. F. (1956). A case history in scientific method. American Psychologist, 11(5), 221-233. https://doi.org/10.1037/h0047662

Stroop, J. R. (1935). Studies of interference in serial verbal reactions. Journal of Experimental Psychology, 18(6), 643-662. https://doi.org/10.1037/h0054651

Washburn, D. A. (2016). The Stroop effect at 80: The competition between stimulus control and cognitive control. Journal of the Experimental Analysis of Behavior, 105(1), 3-13. https://doi.org/10.1002/jeab.194

Watson, J. B. (1913). Psychology as the behaviorist views it. Psychological Review, 20(2), 158-177. https://doi.org/10.1037/h0074428

3 Kommentare

Eingeordnet unter Kritik, Psychologie, Verhaltensanalyse

Kognitive Neuropsychologie – Geisterjagd mit Geigerzählern

Die kognitiven Neurowissenschaften gehören zu den boomenden Teilen der Psychologie. Die Zeitschrift „Geist und Gehirn“ aus dem Verlag, der auch „Spektrum der Wissenschaft“ veröffentlicht, widmet sich diesem Thema und ist nur ein Beispiel dafür, welche Aufmerksamkeit diese Forschungen auch in der breiteren Öffentlichkeit genießen. Den Wissenschaftlern scheint hier endlich der Blick in die „Black Box“ zu gelingen, die Psychologie scheint vom Spekulativem zum Exakten voranzuschreiten.

Doch bei genauerer Betrachtung hat sich die kognitive Neurowissenschaft nicht wesentlich von den älteren kognitiven Wissenschaften weg entwickelt. Schon B.F. Skinner (Skinner, 1938, 1953, 1984, 1990) befürchtete, dass die Zuschreibung von unbeobachteten kognitiven Mechanismen zu gewissen Vorgängen im Gehirn zu nichts anderem als eine „konzeptuellen Nervensystem“ führen wird.

Obschon die Technologie, derer sich die kognitiven Neurowissenschaften bedient, eindrucksvoll ist, gleicht ihr Vorgehen Steven Faux (2002) zufolge der Jagd nach Geistern mittels Geigerzähler. Die kognitiven Wissenschaften bedienten sich früher solcher Messwerte wie der Reaktionszeit als abhängige Variable. Die kognitiven Neurowissenschaften bedienen sich der Gehirn-darstellenden Techniken wie der PET (Positron-Emissions-Tomographie). Diese Techniken sind das Ergebnis von Fortschritten in anderen Wissenschaften (Atomphysik, Computertechnik). Die Messwerte, die man mit ihnen erhebt, werden oft in eindrucksvollen farbigen Graphiken und Karten – ähnlich der Wetterkarte – in den diversen Fachzeitschriften dargestellt. Diese Daten scheinen die Leser etwas näher an die Black Box heranzuführen.

Eine häufig verwendete Technik ist die eben erwähnte Positronen-Emissions-Tomographie (PET). Die PET-Technik stellt gewissermaßen einen computerisierten Geigerzähler dar, der die Verteilung von zuvor eingeatmetem oder injiziertem radioaktivem Sauerstoff und Kohlenstoff im Gewebe darstellt. In den kognitiven Neurowissenschaften wird die mit dem PET gemessene Gehirnaktivität (die radioaktiven Isotope sind an den Stellen des Gehirns am häufigsten anzutreffen, die am meisten „Brennstoff“ verbrauchen) oft in Abhängigkeit von einer bestimmten Tätigkeit, die der Teilnehmer der Studie ausübt, gemessen. Zum Beispiel könnte der Teilnehmer während der Messung eine Liste mit konkreten Hauptwörtern vorlesen oder er soll einen Knopf drücken, wenn er einen bestimmten Ton hört. Die Werte mehrerer Versuche mit einem Teilnehmer werden übereinandergelegt und dann aus den Ergebnissen mehrerer Teilnehmer ein Durchschnitt errechnet.

Eine typische und häufig zitierte Studie stammt von Mellet, Tzourio, Denis und Mazoyer (1995). Die Teilnehmer lagen hier unter dem PET und beobachteten eine Landkarte mit bestimmten Merkmalen. Zuvor war der PET-Basiswert ermittelt worden, indem die Werte gemessen wurden, während die Teilnehmer entspannt mit geschlossenen Augen da lagen. In einer weiteren Bedingung sollten die Teilnehmer sich mit geschlossenen Augen den zuvor auf der Landkarte „gegangenen“ Weg vorstellen. Die für das mentale Vorstellen zuständigen Hirnregionen wurden sodann dadurch identifiziert, dass die Basiswerte von den Werten während der Bedingung, in der die Teilnehmer sich den Weg vorstellen sollten, abgezogen wurden. Hierbei fanden sich bestimmte Regionen im Gehirn (so der obere occipitale Cortex), die relativ konsistent über alle Teilnehmer erregt zu sein schienen, wohingegen andere Regionen auffällig deaktiviert waren. Warum sie das waren, wird von Mellet et al. (1995) jedoch nicht erklärt, ebenso wie in den meisten anderen Studien nicht erklärt wird, warum bestimmte Regionen erregt und andere eher deaktiviert sind.

In dieser Studie, wie auch vielen anderen, die diese Technik verwenden, ist vor allem die große Variationsbreite über die verschiedenen Teilnehmer auffallend. Auch die Daten eines einzelnen Teilnehmers, über den Mellet et al. (1995) detaillierter berichten, variieren stark. Die wenigsten Studien aus diesem Bereich enthalten Berichte über einzelne Teilnehmer. Zudem fällt bei den Graphiken auf, dass Differenzwerte, die tatsächlich sehr gering waren, in den Abbildungen knallrot dargestellt wurden – auffälligen Farbunterschieden liegen nicht notwendigerweise ebenso gravierende Messwertunterschiede zugrunde. Zudem, wenn man die Daten genauer betrachtet, wird klar, dass diese Unterschiede nur im Durchschnitt gelten. Würde man die Werte für jeden Teilnehmer einzeln graphisch darstellen, bei jedem wäre eine andere Region knallrot eingefärbt. Trotz dieser erstaunlichen interindividuellen Variationsbreite schließen die Autoren sehr sicher, dass „mentales Vorstellen“ mit einer Erregung des oberen occipitalen Cortex einhergehe. Mellet et al. (1995) folgern weiter, dass die gespeicherten visuellen Repräsentationen hier ihren Sitz hätten.

Diese Variationsbreite ist typisch für die Experimente in den kognitiven Neurowissenschaften. Selten findet man eine Replikation von einer Gruppe zur nächsten, recht selten sind Replikationen bei einem Individuum und extrem selten ist die Replikation der Ergebnisse von einem Individuum bei einem anderen (Cabeza & Nyberg, 1997, 2000). Besonders bezeichnend sind die Unterschiede in den Ergebnissen von Studien, die dieselbe Aufgabe beinhalteten. So war bei fünf Studien, die alle den sogenannten Stroop-Test (die Versuchsperson muss die Farben benennen, in der bestimmte Farbwörter – blau grün etc. – geschrieben sind; die Farbwörter sind nicht in „ihrer“ Farbe gedruckt, d. h. z. B. „blau“ ist nicht blau geschrieben) verwendeten, um so die „Aufmerksamkeit“ zu erfassen, keine einzige Gehirnregion bei allen fünf Studien aktiviert.

Eines der Hauptprobleme der kognitiven Neurowissenschaften liegt in der Übernahme ungeprüfter mentalistischer Konzepte (wie „mentales Vorstellen“). Die kognitiven Neurowissenschaften setzen voraus, dass die „kognitiven Atome“ bereits entdeckt wurden. Aber es scheint in diesen PET-Experimenten unmöglich zu sein, eine Experimentalbedingung zu schaffen, die von der Kontrollbedingung durch nur eine Aktion des Gehirns unterschieden ist. Die kognitiven Neurowissenschaftler setzen aber voraus, dass es so eine Art Periodensystem der kognitiven Elemente gibt. Das Problem ist, dass man jeden der von den Kognitionswissenschaftlern angenommenen basalen Prozesse ohne weiteres in weitere Subprozesse aufspalten kann (wobei man sich fragen muss, welcher Sinn darin zu sehen ist, ein vages Konstrukt durch drei andere vage Konstrukte zu ersetzen). Bei weitem herrscht hier keine Einigkeit.

Kognitive Neurowissenschaftler können nicht darlegen, warum unbeobachtete kognitive Konstrukte sinnvolle Bezeichnungen für bestimmte Gehirnregionen sein sollen. Uttal (2001) hat daher die kognitiven Neurowissenschaften bereits als die „Neue Phrenologie“ bezeichnet. Bestenfalls, so Faux (2002), bringen uns die PET-Messungen dazu, statt nicht mehr zu wissen, was im ganzen Gehirn vor sich geht, nicht mehr zu wissen, was in einem bestimmten Gyrus vor sich geht.

Zudem sind PET und verwandte Techniken keine direkten Messungen der Gehirnaktivität, sondern nur des Blutflusses im Gehirn. Dies ist insofern relevant, als auch hemmende Neuronen (die in der Gehirntätigkeit eine große Rolle spielen und deren Zweck darin besteht, die Aktivität anderer Neuronen zu hemmen) Sauerstoff und Nährstoffe verbrauchen.

Es ist mehr als zweifelhaft, dass die Wissenschaft dadurch voranschreitet, dass grobe physiologische Messungen vorgenommen werden, um schlecht definierte kognitive Konstrukte zu stützen.

Diese kognitiven Konstrukte werden in diesen Forschungen auch nicht getestet: Zwar werden immer wieder die Gehirn-Karten revidiert, jedoch nie diese Konstrukte wirklich auf die Probe gestellt. Sie werden einfach als gegeben vorausgesetzt.

Hinter all der kognitiven Neurowissenschaft scheint überall der berüchtigte Homunculus im Kopf, das cartesianische Theater, von dem aus alle anderen Aktivitäten gesteuert werden, hindurch. Immer wieder wird auf eine zentrale Exekutive verwiesen, einen Mechanismus, der Output produziert, ohne von Input abhängig zu sein. Diese zentrale Exekutive wird immer dann postuliert, wenn kein direkter Umwelteinfluss beobachtet werden kann. Der „Willen“ stellt somit die Restmenge jenes Verhalten dar, das nicht unter der Kontrolle des Forschers steht.

Literatur

Cabeza, R. & Nyberg, L. (1997). Imaging cognition: An empirical review of PET studies with normal subjects. Journal of Cognitive Neuroscience, 9(1), 1-26.

Cabeza, R. & Nyberg, L. (2000). Imaging cognition II: An empirical review of 275 PET and fMRI studies. Journal of Cognitive Neuroscience, 12(1), 1-47.

Faux, S. F. (2002). Cognitive neuroscience from a behavioral perspective. A critique of chasing ghosts with geiger counters. The Behavior Analyst, 25(2), 161-173.

Mellet, E.; Tzourio, N.; Denis, M. & Mazoyer, B. (1995). A positron emission tomography study of visual and mental spatial exploration. Journal of Cognitive Neuroscience, 7(4), 433-445.

Skinner, B. F. (1938). The Behavior of Organisms. New York: Appleton-Century-Crofts.

Skinner, B. F. (1953). Science and Human Behavior. Reno, NV: MacMillan.

Skinner, B. F. (1984). Methods and theories in the experimental analysis of behavior. Behavioral and Brain Sciences, 7(4), 511-546.

Skinner, B. F. (1990). Can psychology be a science of mind? American Psychologist, 45(11), 1206-1210.

Uttal, W. R. (2001). The new phrenology: The limits of localizing cognitive processes in the brain. Cambridge, Mass.: MIT Press.

2 Kommentare

Eingeordnet unter Philosopie, Psychologie, Verhaltensanalyse

Freud als Pseudowissenschaftler

Ich empfehle die Lektüre der Werke Freuds allen meine Leserinnen und Lesern sehr (ebenso meinen Studentinnen und Studenten). Sigmund Freud ist ein begnadeter Erzähler, dessen Werke über weite Strecken sehr unterhaltsam zu lesen sind (er schreibt auch ein sehr gutes Deutsch), sie sind voller überraschender Beispiele und Anekdoten. Auch seine Erklärungen sind – als Gedankenspiele – sehr anregend. Wahrscheinlich hat Freud seine Popularität unter anderem auch diesem Umstand zu verdanken. Besonders empfehlen kann ich persönlich die „Traumdeutung“, „Der Witz und seine Beziehung zum Unbewussten“ und „Zur Psychopathologie des Alltagslebens“.

Noch unterhaltsamer wird die Freud-Lektüre, wenn man beim Lesen darauf achtet, welche Kniffe Freud anwendet, um seine Leser für sich einzunehmen. Anthony Derksen (2001) hat die Strategien, die Freud nutzte, um zu überzeugen, zusammengefasst. Er nennt sie die „sieben Strategien des fortgeschrittenen Pseudowissenschaftlers“.

Derksen (2001) erklärt, warum Freud auch bei ansonsten sehr kritischen und wissenschaftlich denkenden Geistern kaum als Pseudowissenschaftler auffällt. Freud ist, so Derksen, ein sehr geschickter Pseudowissenschaftler. Er benutzt alle sieben Strategien des Pseudowissenschaftlers auf raffinierte Art und Weise und wirft so eine der großartigsten Nebelbomben der Geistesgeschichte.

Von diesen sieben Strategien sind nicht alle für sich allein verwerflich, einige gleichen sogar sehr lobenswerten Grundsätzen. In der Art, wie Freud sie jedoch zusammen mit den anderen Strategien anwendet, dienen sie perfekt der Verschleierung der Tatsache, dass die Psychoanalyse eine Pseudowissenschaft ist.

Die sieben Strategien sind die folgenden

  1. Die Strategie des ehrlichen Empiristen.
    Freud betont immer wieder, dass man sich auf die unvoreingenommene Beobachtung stützen müsse. Er macht den Empirismus – im Gegensatz zum Vorgehen der Philosophen – sogar nachgerade zu seiner höchsteigenen Sache. Nur wird er dieser Forderung in seinem Vorgehen nie selbst gerecht.
  2. Die Strategie der rücksichtslosen Selbstkritik
    Freud führt in seinen Schriften oft einen scharfen Kritiker seiner selbst ein, der alles, was Freud vertritt, für fragwürdig erklärt. Jedoch verlaufen sich diese Ansätze immer in einer rhetorischen falschen Fährte. Die ursprüngliche Kritik wird am Ende nie beantwortet, sondern nur als beantwortet hingestellt. Skeptiker kennen diese Strategie von anderen Pseudowissenschaftlern: „Also ich bin ja total skeptisch, aber…“
  3. Die Strategie, unvoreingenommen zu sein
    Freud betont immer wieder, seine Prämissen im Lichte widersprechender Befunde jederzeit aufgeben zu wollen. Jedoch tut er das nie. Entweder er gibt nur Prämissen auf, die gar nicht seine eigenen waren oder er verwendet die oben beschriebene Strategie der rücksichtslosen Selbstkritik. Trotzdem erzeugt er beim Leser den Eindruck, quasi von den Tatsachen zur Annahme bestimmter Punkte seiner Theorie gezwungen worden zu sein.
  4. Die Strategie des schlagenden, aber irrelevanten Beispiels
    Freud ist ein Meister im Anführen schöner – aber für die jeweils zu belegende Behauptung irrelevanter – Beispiele. Man nehme Freuds Fehlleistung, immer „Klosetthaus“ statt „Korsetthaus“ zu lesen, als er dringend auf die Toilette musste: Für seine Theorie von den Impulskonflikten als Ursache der Fehlleistungen ist das Beispiel völlig bedeutungslos.
  5. Die Strategie des Beleges an anderer Stelle
    Freud verweist mit Vorliebe auf Belege an anderer Stelle (bei sich selbst oder bei anderen). Er kleidet dies geschickt in didaktische Vorwände und ermuntert den Leser geradezu, seinen Behauptungen nicht zu trauen und zu prüfen. Nur finden sich an den von Freud angegebenen Stellen entweder überhaupt keine relevanten Belege oder aber nur die nach den oben erwähnten Mustern gestrickten rhetorischen Kniffe.
  6. Die Strategie des günstigen Kompromisses
    Freud räumt in seinen Schriften oft dem bereits erwähnten imaginären Kritiker einen scheinbar für diesen günstigen Kompromiss ein. Im Endeffekt erweist sich dieser Kompromiss jedoch immer als eine glatte Bestätigung von Freuds eigentlicher Position. So gelingt es Freud, den Anschein zu erwecken, auf seine Kritiker wirklich ernsthaft einzugehen.
  7. Die Strategie, methodischen Scharfsinn zu zeigen
    Es gibt zahlreiche Zitate von Freud, die ein skeptisch-wissenschaftlicher Psychologe jederzeit unterschreiben könnte, Zitate, die von tiefer Einsicht in die methodischen Probleme der Psychologie zeugen. Nur werden diese methodischen Grundsätze (z. B. bezüglich des Suggestionsvorwurfes) von Freud nie in die Praxis umgesetzt. Im Grunde dient diese Strategie demselben Ziel wie die der rücksichtslosen Selbstkritik.

Derksen (2001) gesteht Freud zu, dass er in der Tat um wissenschaftliche Redlichkeit bemüht gewesen sein mag. Nur hat sich dieser Vorsatz nie in wirklichem Handeln niedergeschlagen. Freud war nicht nur unredlich gegen den Leser, er war es mit hoher Wahrscheinlichkeit auch gegen sich selbst. Als brillanter Rhetoriker blendete er nicht nur andere, sondern vor allem sich selbst.

Literatur

Derksen, A. A. (2001). The seven strategies of the sophisticated pseudo-scientist. Journal for General Philosophy of Science, 32(2), 329-350. https://doi.org/10.1023/a:1013100717113

Hinterlasse einen Kommentar

Eingeordnet unter Geschichte, Kritik, leichte Kost, Psychologie

Wie „erblich“ sind Intelligenz und das Auftreten psychischer Störungen?

Das Thema kam in meinem Umfeld auf und statt einen umfassenden Artikel dazu zu schreiben, gebe ich hier meine Notizen zu Jay Josephs (2004) Buch „The gene illusion“ wieder, in der er die methodischen Schwächen der Erblichkeitsforschung auflistet und begründet. Vielleicht schreibe ich zu diesem immer wieder gerne sehr emotional diskutierten Thema gelegentlich noch mehr. Für weitere Informationen empfehle ich auch die Beiträge in diesem Blog zum Schlagwort „Biologie„.

Das Konzept der Erblichkeit, so Joseph (2004), wurde für die Tier- und Pflanzenzucht entwickelt. Unglücklicherweise wird es heutzutage als eine Zahlenangabe über das Verhältnis des Einflusses von Genen und Lernerfahrungen angesehen.

Es gibt eine Vielzahl von Fehlerquellen, die die Erblichkeitsforscher nicht in den Griff bekommen haben. Zum Beispiel wurden alle Adoptionsstudien, die die Erblichkeit von Schizophrenie untersuchen sollten, in Ländern oder Regionen durchgeführt, in denen (früher oder noch aktuell) eugenisch begründete Gesetze zur Sterilisation von erkrankten Personen galten. Dies hatte zur Folge, dass Kinder von Eltern, die psychisch krank waren, nicht so schnell adoptiert wurden wie Kinder, deren Eltern psychisch unauffällig waren. Adoptiveltern wollten nicht riskieren, dass das Kind, das sie adoptierten, psychisch krank wurde und infolgedessen vielleicht auch noch sterilisiert wurde. Diese Kinder befanden sich deshalb länger in Einrichtungen und wurden letztlich von Familien adoptiert, in denen die psychosozialen Voraussetzungen ungünstiger für sie waren. Es ist kein Wunder, dass diese Kinder dann auch häufiger tatsächlich eine psychische Erkrankung erwarben. Das gleiche gilt für Kinder, die die von kriminellen Eltern abstammen. Die wenigsten potentiellen Adoptiveltern sind bereit, ein Kind aus einer solchen Familie zu adoptieren, insbesondere dann nicht, wenn sie von vielen Seiten erfahren, dass solche Eigenschaften hochgradig erblich sein sollen. Dies hat wiederum zur Folge, dass auch solche Kinder länger im Heim bleiben und letztlich in den eher “ungünstigen“ Familien landen.

Die meisten Adoptiveltern haben jedoch einen überdurchschnittlichen IQ und können ihren Adoptivkindern eine überdurchschnittlich gute Umwelt bieten. Daraus folgt notwendigerweise, dass die Korrelation zwischen dem IQ des Kindes und dem der Adoptiveltern nicht sehr hoch sein kann, da die Varianz auf Seiten der Adoptiveltern relativ gering ist.

Intelligenztests sind keine objektiven Messinstrumente, denn sie messen nicht Eigenschaften wie die Körpergröße, sondern ein hypothetisches Konstrukt: Intelligenz ist das Ergebniss einer Schlussfolgerung, die aus dem Verhalten einer Person abgeleitet wird. Intelligenztests werden extra so konstruiert, damit sie eine bestimmte Verteilung erzeugen, wenn sie einer Stichprobe von Personen vorgegeben werden. Die ersten Intelligenztests waren noch so konstruiert, dass Frauen dort systematisch schlechter abschnitten als Männer. Spätere Intelligenztests wurden so konstruiert, dass Frauen und Männer in etwa gleich gute Ergebnisse erzielten. Das schlechtere Abschneiden von bestimmten Ethnien und Gesellschaftsschichten ist in gewisser Weise in die meisten standardisierten Intelligenztests eingebaut. Man kann daher nicht mit den Ergebnissen von Intelligenztest argumentieren, um zu belegen, dass die Angehörigen bestimmter Schichten oder Ethnien weniger intelligent sind als andere. Mit Intelligenztests gemessene Intelligenzunterschiede verschwinden, wenn sich die gesellschaftlichen Bedingungen verändern. Beispielsweise schnitten Südafrikaner niederländischer Herkunft (Afrikaaner) um 1950 herum in Intelligenztests ungefähr eine halbe Standardabweichung schlechter ab als Südafrikaner britischer Herkunft. Dies änderte sich, als die Afrikaaner in Südafrika zur herrschenden Schicht wurden. Um 1970 herum war dieser Unterschied komplett verschwunden.

Sämtliche Forschungen zur Erblichkeit von Intelligenz, Persönlichkeitseigenschaften, psychischen Erkrankungen, Kriminalität usw. wurden nie ergebnisoffen durchgeführt, sondern waren immer motiviert durch das Bestreben der Forscher, Hinweise für eine bedeutsame Rolle der Gene bei der Ausprägung dieser Eigenschaften und Konstrukte zu finden. Viele dieser Forscher waren zudem Anhänger der Eugenik. Dies lässt sich schon bei Francis Galton aufzeigen. Seinen Forschungen waren so stark fehlerbehaftet, dass sie praktisch nicht verwertbar sind. Er fragte bei 600 Personen an, von denen er wusste, dass sie Zwillinge waren oder die Verwandten von Zwillingen, er erhielt aber nur 159 Antworten. Aus diesem Antworten suchte er 35 Fälle von Zwillingen, die sich sehr ähnlich waren und 20 Fälle von Zwillingen, die sehr unterschiedlich waren, heraus. Im Gegensatz zu dem, was heutzutage verbreitet wird, verglich Galton nicht eineiige und zweieiige Zwillinge. Er benutzte lediglich einige, aus zweiter oder dritter Hand überlieferte Fälle, um seine bereits vorgefassten Anschauungen zu illustrieren. Galtons Schriften als wissenschaftliche Untersuchungen darzustellen, verhöhnt die wissenschaftliche Methode als Ganzes. Dennoch ist Galton zu Recht als der Vater der Eugenik und der Zwillingsforschung bezeichnet worden.

Die eigentliche Zwillingsforschung begann im 20. Jahrhundert in Deutschland. Die Begründer der Zwillingsforschung (Joseph nennt hier Hermann Siemens) und ihre Schüler betrieben ihre Forschungen praktisch ohne Unterbrechung vor, während und nach der Zeit des Naziregimes in Deutschland weiter. Bruno Schulz, der sich während der Nazizeit mehrfach zustimmend zur Rassenhygiene und zur Sterilisation genetisch minderwertiger Personen geäußert hatte (was von Heinrich Himmler und andere Nazigrößen wohlgefällig aufgenommen wurde), gründete nach dem Krieg die Abteilung für Genealogie und Demographie des Max-Planck-Instituts für Psychiatrie in München. Diese Verquickungen mögen der Grund sein, warum ihre eigentlichen Gründerväter von heutigen, internationalen Zwillingsforschern kaum mehr genannt werden. Nichtsdestotrotz bezieht man sich in Überblicksarbeiten und Metastudien auf die Daten dieser deutschen Forscher, wenn es darum geht, die These von der überwiegenden Erblichkeit bestimmter mentaler Eigenschaften zu untermauern. Ansonsten wird die Verquickung jener Pioniere der Erblichkeitsforschung mit dem Naziregime gerne geleugnet. Viele tragende Säulen des Systems werden zu Kritikern und Verfolgten des Naziregimes stilisiert (vergleiche etwa den Wikipedia-Artikel zu Bruno Schulz, in dem es heißt, er habe die Sterilisierungspolitik des Nationalsozialismus „implizit infrage gestellt“). Franz Kallmann etwa wird als jüdischer Emigrant dargestellt, der Hitlers Deutschland entfloh. Tatsächlich war Kallmann 1935 in Deutschland noch aktiv und setzte sich für die zwangsweise Sterilisation von Menschen, die die Diagnose Schizophrenie erhalten hatten sowie deren Angehörigen ein. Auch nach seiner Flucht trat er 1938 noch für „negative eugenische Maßnahmen“ gegen die „Überträger von Geisteskrankheiten“ ein. 1953 dagegen behauptete er, er habe seine Familienstudie vor allem deshalb unternommen, um die Erblichkeit von Schizophrenie zu widerlegen. Nichtsdestotrotz war er noch in den fünfziger und sechziger Jahren aktiv in der amerikanischen eugenischen Gesellschaft.

Nach dem Zweiten Weltkrieg bis in die sechziger Jahre erlebte die Erblichkeitsforschung einen Tiefpunkt. Doch beginnend in den siebziger Jahren und verstärkt in den achtziger und neunziger Jahren des 20. Jahrhunderts erhielt sie wieder Auftrieb. Sie diente vor allem als Rechtfertigung für die Ungleichheiten und Ungerechtigkeiten des kapitalistischen Systems. Auch die pharmazeutische Industrie hatte ein Interesse daran, psychische Erkrankungen als biologisch bedingt darzustellen. Als Durchbruch wurden die Studien zu getrennt aufgewachsenen Zwillingen in Minnesota gefeiert (z. B. Lilienfeld, 2014), doch kranken diese, so Joseph (2004), an den gleichen Schwächen wie alle früheren Studien.

Der große Schwachpunkt der Zwillingsforschung ist die Annahme der Gleichartigkeit der Umwelten von eineiigen und zweieiigen Zwillingen. Eineiige Zwillinge haben (mehr oder weniger) zu 100 % identische Gene. Die Gene von zweieiigen Zwillingen stimmen dagegen nur zu 50 % überein. Die Zwillingsforschung setzt voraus, dass eineiige und zweieiige Zwillinge in einer im gleichen Ausmaß ähnlichen Umwelt aufwachsen. Doch ist die Umwelt von eineiigen Zwillingen deutlich ähnlicher als die Umwelt von zweieiigen Zwillingen. Eineiige Zwillinge erkennt man vor allem daran, dass sie sich „wie ein Ei dem anderen gleichen“. Zweieiige Zwillinge können dagegen so verschieden aussehen wie Geschwister im Allgemeinen. Sie werden von ihrer Umwelt deutlich unterschiedlicher behandelt als eineiige Zwillinge. Eineiigen – und nicht zweieiigen – Zwillingen passiert es häufig, dass sie miteinander verwechselt werden. Eineiige Zwillinge haben häufiger die gleichen Freunde, sie verbringen mehr Zeit miteinander und sie werden von ihren Eltern, Verwandten, Lehrern und Bekannten häufiger so behandelt, als wären sie eine Person, als dies bei zweieiigen Zwillingen der Fall ist. Die Logik der Zwillingsforschung setzt jedoch voraus, dass die Umwelt von eineiigen Zwillingen nicht ähnlicher ist als die Umwelt von zweieiigen Zwillingen. Mit der Kritik an dieser Annahme konfrontiert, greifen die Zwillingsforscher jedoch zum Mittel der Beweislastumkehr. Die Kritiker müssten nachweisen, dass die ähnlichere Umwelt von eineiigen Zwillingen einen systematischen Einfluss auf die untersuchten Eigenschaften habe, ansonsten sei das Argument irrelevant. Interessanterweise können Kritiker selbst dieser unfairen Anforderung genügen. So werden Menschen, die attraktiv sind, von ihrer Umwelt positiver wahrgenommen und gefördert, wohingegen bei unattraktiven Menschen das Risiko einer psychischen Erkrankung höher ist. Das herausragende Merkmal von eineiigen Zwillingen ist ihr identisches Äußeres. Die erhöhte Konkordanz des Auftretens von psychischen Erkrankungen bei eineiigen Zwillingen lässt sich zum Teil durch deren identisches Äußeres erklären.

Am überzeugendsten scheinen die Studien von eineiigen Zwillingen, die getrennt aufwuchsen. Dabei muss man zwei Erzählstränge unterscheiden. Der eine Erzählstrang ist der folkloristische. Es wimmelt von Erzählungen von getrennt aufgewachsenen eineiigen Zwillingen, die sich in erstaunlicher Weise ähneln. All diese Erzählungen stellen lediglich anekdotische Evidenzen dar. Und auch eine Häufung von solchen Erzählungen belegt nichts: die Mehrzahl von Anekdoten ist nun mal nicht Daten. Einem Journalisten auf der Suche nach einer guten Story mag man es noch durchgehen lassen, wenn er solche Anekdoten verbreitet. Die Forscher auf diesem Gebiet distanzieren sich natürlich von solchen Geschichten, wenn sie von anderen Wissenschaftlern dazu befragt werden. Doch sie geben gegenüber Journalisten diese Geschichten gerne weiter, obwohl sie, wenn sie ihren wissenschaftlichen Sachverstand benutzen würden, wissen müssten, dass diese Geschichten rein gar nichts aussagen. Sie verhalten sich dabei in ähnlicher Weise wie „wissenschaftlich arbeitende“ Parapsychologen, die gegenüber Skeptikern zugeben, dass Alltagsanekdoten von Telepathie (ein alter Freund, an den ich gerade gedacht hatte, ruft mich just in diesem Moment an) keine Aussagekraft haben, solche Geschichten aber gegenüber Journalisten gerne zum Besten geben.

Der zweite Erzählstrang bezüglich der Studien zu getrennt aufgewachsenen eineiigen Zwillingen bezieht sich auf die Übereinstimmung in bestimmten Testergebnissen (zum Beispiel Persönlichkeitsfragebogen und Intelligenztests). Zu diesen Studien muss angemerkt werden, dass die allerwenigsten dieser „getrennt aufgewachsenen“ eineiigen Zwillinge tatsächlich keinerlei Kontakt zueinander hatten und tatsächlich in deutlich unterschiedlichen Umwelten aufwuchsen. Oft bestand über Jahrzehnte hinweg ein Kontakt zwischen den Zwillingen. Ein anderer methodischer Fehler ist die Stichprobenauswahl. Viele getrennt aufgewachsene eineiige Zwillinge wurde nur deshalb gefunden und in die Studie aufgenommen, weil sie sich in so frappierende Weise ähnelten (ungefähr 90 % der bekannten Fälle von getrennt aufgewachsenen eineiigen Zwillingen wurden genau deshalb untersucht, weil sie sich so ähnlich waren). Doch selbst wenn man voraussetzt, dass diese Stichproben eine nennenswerte Anzahl an tatsächlich getrennt aufgewachsenen Zwillingen enthalten würden, so gibt es doch einige prinzipielle methodische Probleme. Getrennt aufgewachsene eineiige Zwillinge wachsen dennoch in einer hochgradig gleichartigen Umwelt auf. Sie gehören der gleichen Alterskohorte an. Dies hat großen Einfluss auf die Ausprägung bestimmter Persönlichkeitsmerkmale. Personen, die bspw. ihre Kindheit und Jugend unmittelbar nach dem Zweiten Weltkrieg verbrachten, legen häufiger großen Wert auf Sparsamkeit und Fleiß. Getrennt aufgewachsene eineiige Zwillinge wachsen in der Regel dennoch im gleichen Land auf. Sie sind sich desto ähnlicher, je konformistischer die Kultur ist, in der sie aufwachsen. Sie gehören derselben Ethnie an. Sie haben das gleiche Geschlecht, wachsen oft in derselben Kultur oder Subkultur und in der gleichen Region auf. Sie sind beide freiwillig bereit, an einer Untersuchung zur Erblichkeit von Persönlichkeitsmerkmalen und intellektuellen Fertigkeiten teilzunehmen. Sie hatten die gleiche vorgeburtliche Umwelt.

Weitere methodische Schwächen der Studien zu den getrennt aufgewachsenen eineiigen Zwillingen betreffen die Datenerhebung. Die getrennt aufgewachsenen eineiigen Zwillinge wurden oft vom selben Untersucher befragt. Diese Tests waren also in keiner Weise verblindet. Hinzu kommt der Umstand, dass die Zwillinge adoptiert wurden. Kinder aus intakten, wohlhabenden Familien werden selten zur Adoption freigegeben. 90 % der getrennt aufgewachsenen eineiigen Zwillinge stammen aus armen Familien, dies verzerrt die Stichprobe. Kinder, die zur Adoption freigegeben werden, werden nicht einfach zufällig irgendwelchen Familien zugeordnet. Die Jugendämter achten darauf, dass die Adoptiveltern den Kindern in bestimmter Hinsicht gleichen. Sie achten in der Regel auch darauf, dass die Adoptiveltern nicht straffällig geworden sind, psychisch gesund sind und ökonomisch so gut gestellt sind, dass sie gut für die Adoptivkinder sorgen können. Sehr häufig werden Kinder von Verwandten adoptiert. Betrachtet man die verfügbaren Daten zu den Stichproben genauer (die Erblichkeitsforscher sind in der Regel nicht bereit, ihre Rohdaten anderen Forschern zur Verfügung zu stellen, oft mit dem Argument, die Privatsphäre ihrer Versuchspersonen schützen zu wollen; andererseits zerren sie ihre besonders beeindruckenden Fälle jederzeit gerne an die Öffentlichkeit) stellt man fest, dass praktisch kein Zwillingspärchen tatsächlich seit der Geburt keinen Kontakt mehr zueinander hatte und tatsächlich in sehr unterschiedlichen Umwelten aufwuchs. In den bekannten Einzelfällen, in denen dies der Fall war, zeigt sich dagegen oft, dass die Zwillinge dann auch sehr unterschiedlich waren, was ihre Persönlichkeit und ihre Intelligenz angeht. So wird über ein Paar aus der Minnesota-Studie berichtet, das tatsächlich in sehr unterschiedlichen Umwelten aufwuchs. Einer der Zwillinge wurde von Analphabeten adoptiert, der andere von einem besser ausgebildeten Ehepaar. Der Unterschied im IQ zwischen den beiden Zwillingen betrug 29 Punkte. Die Zwillingsforscher versuchten, diesen Unterschied damit weg zu erklären, indem sie unterstellten, dass der bei den Analphabeten aufgewachsene Zwilling eine Art Gehirnschaden bei der Geburt erlitten habe. Dafür wurde jedoch keinerlei Beleg vorgebracht.

Getrennt aufgewachsene eineiige Zwillinge werden in den Studien mit getrennt aufgewachsenen zweieiigen Zwillingen verglichen. Auch hier zeigen sich systematische Fehler. Die getrennt aufgewachsenen eineiigen Zwillinge der Minnesota-Studien hatten doppelt so oft wie die getrennt aufgewachsenen zweieiigen Zwillinge vor Beginn der Untersuchung bereits Kontakt zueinander. Es kommt noch besser: 16 von 53 getrennt aufgewachsenen zweieiigen Zwillingen dieser Studien hatten nicht das gleiche Geschlecht! Die Testergebnisse für diese Pärchen werden in den Studien aber nicht getrennt aufgelistet. Es versteht sich von selbst, dass sich Brüder und Schwestern stärker voneinander unterscheiden als gleichgeschlechtliche Zwillingspaare.

Folgt man der Logik der Erblichkeitsforscher, so müsste man argumentieren, dass die Art und Weise, wie Menschen sich anziehen, eine direkte Konsequenz ihrer Gene ist. Eineiige Zwillinge ziehen sich oft in gleicher Art und Weise an, was bei zweieiigen Zwillingen eher selten vorkommt. Demnach muss also die Wahl der Kleidung eine mehr oder weniger ausschließlich erblich bedingte Eigenschaft sein.

Angaben zur Erblichkeit einer Eigenschaft haben eigentlich nur dann Sinn, wenn man Menschen, Tiere oder Pflanzen züchten möchte. Sie sagen lediglich etwas über das Ausmaß der Variation in diesen Eigenschaften aus, sie können nichts zu der Frage nach den Ursachen dieser Eigenschaften beitragen.

Literatur

Joseph, J. (2004). The gene illusion : Genetic research in psychiatry and psychology under the microscope. New York: Algora Pub.
Lilienfeld, S. O. (2014). Psychology : from inquiry to understanding (3rd). Boston: Pearson.

2 Kommentare

Eingeordnet unter Entwicklung, Kritik, Psychologie