Monatsarchiv: Dezember 2021

Warum die Psychologie ihre Versprechen nicht einlösen konnte

Die Psychologie wird als Wissenschaft oft nicht so ganz für voll genommen. Hank Schlinger (2004) meint, dass dies vor allem daran liegt, dass die Psychologie nicht die in sie gesetzten Erwartungen erfüllen konnte. Auch viele prominente Psychologinnen und Psychologen sind der Ansicht, dass die Psychologie mehr versprach, als sie halten konnte. Tatsächlich kann die Psychologie wenige bemerkenswerte Entdeckungen und wenig zufriedenstellende Erklärungen vorweisen. Die Hauptursache hierfür ist laut Schlinger (2004) die Betonung des Geistes anstelle des Verhaltens. Im Gegensatz zu den Naturwissenschaften (wie Biologie oder Chemie) hat sich die Psychologie methodisch den Sozialwissenschaften mit ihren Prinzipien der Hypothesentestung und den Methoden der Inferenzstatistik angeschlossen.

Wissenschaften sollten zwei Ziele anstreben: Sie sollten uns dazu befähigen, die physische und biologische Welt beeinflussen zu können. Die Naturwissenschaften können dies oft, wie man an Impfungen, Antibiotika, Halbleitern und vielen anderen technischen Errungenschaften erkennen kann. Ein zweites Ziel der Wissenschaften besteht darin, Erklärungen für die Komplexität der Welt zu liefern, die elegant und befriedigend sind.

In der Psychologie gibt es keinen einheitlichen Erklärungsrahmen. Die Psychologie gibt das Bild einer Ansammlung von Subdisziplinen, die nicht durch ein gemeinsames Prinzip geeint werden. Hinzu kommt das vorwissenschaftliche Vokabular der Psychologen, mit solchen Ausdrücken wie Geist, Gedächtnis, Denken und Bewusstsein. Mit diesen Begriffen schlagen sich Psychologen und Philosophen schon seit vielen Jahrhunderten, man muss sagen, ohne Erfolg, herum.

Wissenschaften sollen nach gängiger Auffassung drei Aufgaben erfüllen: Sie sollen den ihnen zugewiesenen Realitätsbereich objektiv erfassen und messen können, sie sollen ihn experimentell kontrollieren können und sie sollen Voraussagen bezüglich dieses Realitätsbereiches treffen können.

Das von den meisten Psychologen genannte Aufgabengebiet der Psychologie, der ihr zugewiesenen Realitätsbereich, soll der Geist sein. Doch schon dieser Realitätsbereich entzieht sich dem Ziel der objektiven Beobachtung und Messung. Die Psychologie als Wissenschaft kann ihre (selbst dazu erklärte) abhängige Variable, die Kognitionen, weder beobachten noch messen. Daraus leitet sie die Vorgehensweise ab, offen sichtbares Verhalten nur deshalb zu untersuchen, um daraus Rückschlüsse auf kognitive Ereignisse zu ziehen.

Beispielsweise gehen die meisten Psychologen davon aus, dass der Begriff Gedächtnis sich auf eine Ansammlung von kognitiven Prozessen bezieht (z. B. das Codieren, Speichern und der Abruf von Informationen). Doch welche Prozesse und Strukturen machen nun in ihrer Gesamtheit das Gedächtnis aus? Kognitive Psychologen schließen allein aufgrund des beobachteten offenen Verhaltens auf die Strukturen und Prozesse des Gedächtnisses. Wenn ich auf der Straße einen alten Bekannten treffe und in der Lage bin, diesen mit seinem Namen zu begrüßen, greife ich aus dieser Sicht auf meine abgespeicherte Erinnerung an den Freund zurück. Doch ist dies lediglich eine zirkuläre oder gar tautologische Erklärung für das schlichte Verhalten, dass ich den Namen meines Freundes sage, wenn ich ihn sehe.

Die Rede vom Geist führt auch zu einem unrettbar dualistischen Denken. Wie soll ein nicht materieller Geist das Gehirn beeinflussen und umgekehrt? Gelegentlich wird beteuert, jede Kognition sei letztlich das Ergebnis einer neurologischen Aktivität. Doch was ist dann die Kognition, wenn sie nicht Verhalten ist? Die Psychologie muss diese Antwort schuldig bleiben. Die meisten Begriffe innerhalb der Psychologie sind ihrem Wesen nach metaphorisch: kognitive Landkarten, Engramme, Kodierung, Abruf, sensorisches Register und Speicher. Dummerweise erfordert jedes kognitive Element in der Erklärung des offenen Verhaltens eine weitere Erklärung oder Rechtfertigung. Jeder neue Begriff muss letztendlich in der Währung physikalischer, biologischer oder verhaltensbezogene Ereignisse bezahlt werden. Die Psychologie verhält sich, so Palmer (2003), wie jemand, der seine Kreditkartenschulden begleicht, indem er eine andere Kreditkarte belastet. Dadurch wird die Erklärungslast der kognitiven Psychologie nur vermehrt, nicht reduziert.

Wenn ich beispielsweise den Namen meines Freundes ausspreche, wenn ich ihn sehe, wird gesagt, dass ich mich an seinen Namen erinnere, dass ich ihn wahrnehme oder wiedererkenne oder aber, dass ich eine Vorstellung von ihm habe, Wissen über ihn oder eine Repräsentation von ihm. In diesem Beispiel sollen das Gedächtnis, die Wahrnehmung, dass Wiedererkennen oder die Vorstellung unterschiedliche kognitive Prozesse sein. Doch der Beleg dafür, dass diese kognitiven Prozesse existieren, ist immer der gleiche: dass ich den Namen meines Freundes sage, wenn ich ihn sehe (S. 128). Man könnte das gleiche Verhalten auf wesentlich sparsamere Art und Weise erklären, indem man sich auf bereits experimentell wohl bestätigte Prinzipien des Verhaltens bezieht. (Schlinger, 1992)

Die Psychologie rechtfertigt dieses Vorgehen oft damit, dass auch andere Wissenschaften über das Beobachtbare hinausgegangen und dadurch fortgeschritten sind. So erkannte Newton, dass der Mond eine Gravitationskraft auf das Meer ausübt und so die Gezeiten verursacht. Er erkannte dies, weil er es bei kleineren Objekten experimentell untersuchen konnte. Doch Psychologen gehen anders vor: Sie messen eine bestimmte Art von Ereignissen (Verhalten) mit der Absicht, über Ereignisse einer ganz anderen Natur (Kognitionen) zu sprechen. Astronomen befolgen das Prinzip der Sparsamkeit, indem sie Ereignisse, die sie nicht direkt untersuchen können, mit der geringstmöglichen Anzahl an Annahmen erklären, wobei diese Annahmen im kleineren Maßstab bestätigt werden konnten (im Weltall gelten die gleichen Naturgesetze wie im Physiklabor). Die theoretischen Annahmen von Psychologen dagegen basieren auf Annahmen, die niemals direkt getestet werden können. Solcherart konzentriert sich die Psychologie auf unbeobachtete Ereignisse, ehe sie überhaupt erst einmal versteht, wie die beobachteten Ereignisse zu Stande kommen. Sie zäumen das Pferd von hinten auf. Verhaltensanalytiker gehen umgekehrt vor, wie der Rest der Naturwissenschaftler. Sie beobachten offenes Verhalten, leiten hieraus Gesetzmäßigkeiten ab und nehmen an, dass diese Gesetzmäßigkeiten auch für den nicht-objektiv beobachtbaren Anteil des Verhaltens gelten.

In der Psychologie dagegen gilt das Prinzip, dass beobachtetes Verhalten nur durch den Rückgriff auf unbeobachtbare Prozesse zufriedenstellend erklärt werden könne. Dies führt allerdings dazu, dass die Erklärungen allenfalls metaphorisch sein können. Beispielsweise erklärt man in der Psycholinguistik den „erstaunlichen Umstand“, dass Kinder relativ schnell ihre Muttersprache erlernen können, mit einem besonderen Konstrukt, dem Language Acqusition Device (LAD). Doch kann niemand das LAD beschreiben, geschweige denn erklären und dabei bekannte wissenschaftliche Prinzipien aus der Psychologie oder Biologie heranziehen. Das Problem der kognitiven Psychologie besteht darin, dass das ganze Feld durch und durch metaphorisch ist, weil die abhängige Variable, die Kognitionen, nie beobachtet werden kann. Ironischerweise müssen Psychologen deswegen ihre kognitiven Phänomene immer als beobachtbares Verhalten operationalisieren. Sie tun dies aber nicht, weil sie Verhalten als Forschungsgegenstand von eigener Geltung betrachten (S. 131).

In den meisten psychologischen Experimenten lassen sich keine zuverlässigen funktionalen Beziehungen zwischen der unabhängigen und der abhängigen Variable herstellen, da keine eindeutige experimentelle Kontrolle über die abhängige Variable demonstriert werden kann. Einer der Gründe dafür ist, dass die meisten Experimente mit Gruppen von Versuchspersonen durchgeführt werden, anstatt mit den individuellen Versuchspersonen. Zudem sind die unabhängigen Variablen in der Psychologie oft zu komplex oder nur ungenau definiert, sodass sie sich einer objektiven Untersuchung entziehen. Die Untersuchungsdesigns werden mehr durch die Möglichkeiten der statistischen Analyse vorgegeben, denn durch das Erkenntnisinteresse. In psychologischen Experimenten werden, oft unnötigerweise, Daten von Befragungen und Selbstauskünfte als Messungen akzeptiert, obwohl bekannt ist, dass diese notorisch unzuverlässig sind.

Der Erfolg jeder Wissenschaft hängt davon ab, dass sie in der Lage ist, eindeutige Analyseeinheiten festzulegen. In der Biologie ist das etwa die Zelle. Von wenigen Ausnahmen abgesehen (nämlich in der Verhaltensanalyse) ist die Psychologie nicht in der Lage, solche eindeutigen Analyseeinheiten vorzuweisen.

Watson (1913) wollte die Psychologie am Modell der Naturwissenschaften ausrichten. Aus seiner Form des Behaviorismus gingen im Wesentlichen zwei noch heute aktuelle Formen hervor: der radikale Behaviorismus nach Skinner, der die Grundlage der Verhaltensanalyse bildet und der Neobehaviorismus nach Hull, der sich dem hypothetisch-deduktiven Ansatz verschrieben hat. Der Neobehaviorismus stellt die Grundlage der heute in der Psychologie üblichen Methoden dar. Auch die kognitive Psychologie, die angeblich den Behaviorismus überwunden hat, folgt ihm in methodischer Hinsicht noch immer. Dies hat zur Folge, dass in der Psychologie jedes psychologische Phänomen seine eigene Erklärung oder Theorie hat. Dies steht im Widerspruch zum Vorgehen in den Naturwissenschaften, wo es als ein Qualitätsmerkmal gilt, wenn man mit einer Theorie möglichst viele verschiedene Phänomene erklären kann.

Hinzu kommt der nachgerade vollkommen unverständliche Ansatz, das aggregierte Verhalten einer Gruppe von Versuchspersonen zu untersuchen, anstatt das Verhalten der einzelnen Versuchsperson. Die Unterschiede zwischen den Versuchspersonen werden eingeebnet, statt sie als das eigentlich Untersuchungswürdige zu betrachten. Dies erlaubt den Forschern nicht, das Verhalten von einzelnen Personen vorauszusagen oder gar zu kontrollieren. Wie bereits Skinner (1956) ausgedrückt hat, geht niemand in den Zirkus, um einen durchschnittlichen Hund signifikant öfter durch einen Ring springen zu sehen als einen nicht trainierten Hund. Mit ihrer Skepsis bezüglich des Prinzips der Hypothesentestung in der Psychologie ist die Verhaltensanalyse nicht allein, auch einige Psychologinnen und Psychologen haben dies bemerkt (Loftus, 1991). Erkenntnisfortschritt geschieht oft durch einen Wechsel von Induktion und Deduktion. Doch in der Psychologie hat man sich allein auf die Deduktion konzentriert. Dies hat zur Folge, dass sie sich selbst darin behindern, Bemerkenswertes zu entdecken. Man vergleiche dagegen die Haltung von Skinner (1956): „Wenn du [in deiner Forschung] über etwas Interessantes stolperst, dann lasse alles andere liegen und untersuche es“ (S. 223).

Hinzu kommt, dass es in der Psychologie kaum echte Experimente gibt. In der Regel wird nicht-experimentell geforscht. Die unabhängige Variable in der Psychologie ist daher nicht gleichzusetzen mit der Ursache der abhängigen Variable. Sie ist lediglich ein Prädiktor. Schlinger (2004) zeigt auf, dass viele Experimente in der Psychologie lediglich Demonstrationsexperimente sind. Beispielsweise zeigt die Forschung zur Mutter-Kind-Bindung, dass es einige Kinder gibt, die weinen, wenn ihre Mutter sie mit einem Fremden allein lässt, andere Kinder weinen nicht. Dies wird erklärt über die verschiedenen Bindungstypen. Doch erklärt dies nicht, warum dieses Verhalten auftritt. Die finale Ursache der Bindung ist höchstwahrscheinlich in der Lerngeschichte des Individuums zu suchen. In einem Großteil der Literatur zur Bindungsforschung nutzt man stattdessen mentalistische Konzepte, wie die Erwartungen, die Erinnerung, das interne Arbeitsmodell, um das Verhalten der Kinder im „Fremde-Situations-Test“ erklären.

Ähnliches gilt für die psychologische Forschung zum Stroopeffekt (Stroop, 1935). Dabei werden der Versuchsperson verschiedene Farbwörter (rot, blau, grün usw.) gezeigt, die in unterschiedlichen Farben gedruckt sind. Dabei sind die Wörter oft in einer anderen Farbe gedruckt als es der Bedeutung des Farbwortes entspricht (d. h., das Wort „rot“ ist z. B. in grüner Farbe gedruckt). Die Versuchspersonen beim Stroop-Test sollen nun nicht die Wörter vorlesen, sondern die Farbe angeben, in der das Wort gedruckt ist. Stimmt das Farbwort mit der Druckfarbe über ein, gelingt dies der Versuchsperson schneller, als wenn das Farbwort und die Farbe, in der es gedruckt ist, nicht übereinstimmen. Um diesen gut bestätigten Umstand zu erklären, werden die unterschiedlichsten kognitiven Konstrukte bemüht. Anstatt aber die längere Latenzzeit und die erhöhte Anzahl an Fehlern endgültig zu erklären, demonstrieren die Experimente lediglich das Phänomen immer wieder und zeigen einige Bedingungen auf, unter denen es auftritt. Dabei liegt die Erklärung in der Lerngeschichte der Versuchspersonen. Üblicherweise führt es häufiger zur Verstärkung, wenn wir „rot“ vorlesen, wenn wir das entsprechende Wort sehen. Seltener wird ein Verhalten verstärkt, bei dem man die Druckfarbe, in der ein Wort gedruckt ist, angeben soll. Aus diesem Blickwinkel erscheint der Stroopeffekt theoretisch und praktisch weit weniger interessant, als es die Psychologen glauben. Doch die Psychologen führen zu diesem Effekt noch immer eifrig Forschungen durch, ohne echte Fortschritte zu erzielen (MacLeod, 1991, 1992; Washburn, 2016).

Nach Schlinger (2004) hat die Psychologie bislang allenfalls im Bereich der Beschreibung Fortschritte gemacht, nicht aber, was die anderen Aufgaben von Wissenschaften (Erklären, Voraussagen und Verändern) betrifft. Als Heilmittel empfiehlt er, dass die Psychologie zu einem nicht-mediationalem, nicht-mechanistischen und nicht-dualistischen verhaltensorientierten Ansatz zurückkehrt.

Loftus, G. R. (1991). On the tyranny of hypothesis testing in the social sciences. Contemporary Psychology: A Journal of Reviews, 36(2), 102-105. https://doi.org/10.1037/029395

MacLeod, C. M. (1991). Half a century of research on the Stroop effect: An integrative review. Psychological Bulletin, 109(2), 163-203. https://doi.org/10.1037/0033-2909.109.2.163

MacLeod, C. M. (1992). The Stroop task: The „gold standard“ of attentional measures. Journal of Experimental Psychology: General, 121(1), 12-14. https://doi.org/10.1037/0096-3445.121.1.12

Palmer, D. C. (2003). Cognition. In K. A. Lattal & P. N. Chase (Eds.), Behavior theory and philosophy. (pp. 167-185). Kluwer Academic/Plenum Publishers. https://doi.org/10.1007/978-1-4757-4590-0_9

Schlinger, H. D. (1992). Theory in behavior analysis: An application to child development. American Psychologist, 47(11), 1396-1410. https://doi.org/10.1037/0003-066x.47.11.1396

Schlinger, H. D. (2004). Why psychology hasn’t kept its promises. Journal of Mind and Behavior, 25(2), 123-144. https://www.jstor.org/stable/43854026

Skinner, B. F. (1956). A case history in scientific method. American Psychologist, 11(5), 221-233. https://doi.org/10.1037/h0047662

Stroop, J. R. (1935). Studies of interference in serial verbal reactions. Journal of Experimental Psychology, 18(6), 643-662. https://doi.org/10.1037/h0054651

Washburn, D. A. (2016). The Stroop effect at 80: The competition between stimulus control and cognitive control. Journal of the Experimental Analysis of Behavior, 105(1), 3-13. https://doi.org/10.1002/jeab.194

Watson, J. B. (1913). Psychology as the behaviorist views it. Psychological Review, 20(2), 158-177. https://doi.org/10.1037/h0074428

3 Kommentare

Eingeordnet unter Kritik, Psychologie, Verhaltensanalyse

Kognitive Neuropsychologie – Geisterjagd mit Geigerzählern

Die kognitiven Neurowissenschaften gehören zu den boomenden Teilen der Psychologie. Die Zeitschrift „Geist und Gehirn“ aus dem Verlag, der auch „Spektrum der Wissenschaft“ veröffentlicht, widmet sich diesem Thema und ist nur ein Beispiel dafür, welche Aufmerksamkeit diese Forschungen auch in der breiteren Öffentlichkeit genießen. Den Wissenschaftlern scheint hier endlich der Blick in die „Black Box“ zu gelingen, die Psychologie scheint vom Spekulativem zum Exakten voranzuschreiten.

Doch bei genauerer Betrachtung hat sich die kognitive Neurowissenschaft nicht wesentlich von den älteren kognitiven Wissenschaften weg entwickelt. Schon B.F. Skinner (Skinner, 1938, 1953, 1984, 1990) befürchtete, dass die Zuschreibung von unbeobachteten kognitiven Mechanismen zu gewissen Vorgängen im Gehirn zu nichts anderem als eine „konzeptuellen Nervensystem“ führen wird.

Obschon die Technologie, derer sich die kognitiven Neurowissenschaften bedient, eindrucksvoll ist, gleicht ihr Vorgehen Steven Faux (2002) zufolge der Jagd nach Geistern mittels Geigerzähler. Die kognitiven Wissenschaften bedienten sich früher solcher Messwerte wie der Reaktionszeit als abhängige Variable. Die kognitiven Neurowissenschaften bedienen sich der Gehirn-darstellenden Techniken wie der PET (Positron-Emissions-Tomographie). Diese Techniken sind das Ergebnis von Fortschritten in anderen Wissenschaften (Atomphysik, Computertechnik). Die Messwerte, die man mit ihnen erhebt, werden oft in eindrucksvollen farbigen Graphiken und Karten – ähnlich der Wetterkarte – in den diversen Fachzeitschriften dargestellt. Diese Daten scheinen die Leser etwas näher an die Black Box heranzuführen.

Eine häufig verwendete Technik ist die eben erwähnte Positronen-Emissions-Tomographie (PET). Die PET-Technik stellt gewissermaßen einen computerisierten Geigerzähler dar, der die Verteilung von zuvor eingeatmetem oder injiziertem radioaktivem Sauerstoff und Kohlenstoff im Gewebe darstellt. In den kognitiven Neurowissenschaften wird die mit dem PET gemessene Gehirnaktivität (die radioaktiven Isotope sind an den Stellen des Gehirns am häufigsten anzutreffen, die am meisten „Brennstoff“ verbrauchen) oft in Abhängigkeit von einer bestimmten Tätigkeit, die der Teilnehmer der Studie ausübt, gemessen. Zum Beispiel könnte der Teilnehmer während der Messung eine Liste mit konkreten Hauptwörtern vorlesen oder er soll einen Knopf drücken, wenn er einen bestimmten Ton hört. Die Werte mehrerer Versuche mit einem Teilnehmer werden übereinandergelegt und dann aus den Ergebnissen mehrerer Teilnehmer ein Durchschnitt errechnet.

Eine typische und häufig zitierte Studie stammt von Mellet, Tzourio, Denis und Mazoyer (1995). Die Teilnehmer lagen hier unter dem PET und beobachteten eine Landkarte mit bestimmten Merkmalen. Zuvor war der PET-Basiswert ermittelt worden, indem die Werte gemessen wurden, während die Teilnehmer entspannt mit geschlossenen Augen da lagen. In einer weiteren Bedingung sollten die Teilnehmer sich mit geschlossenen Augen den zuvor auf der Landkarte „gegangenen“ Weg vorstellen. Die für das mentale Vorstellen zuständigen Hirnregionen wurden sodann dadurch identifiziert, dass die Basiswerte von den Werten während der Bedingung, in der die Teilnehmer sich den Weg vorstellen sollten, abgezogen wurden. Hierbei fanden sich bestimmte Regionen im Gehirn (so der obere occipitale Cortex), die relativ konsistent über alle Teilnehmer erregt zu sein schienen, wohingegen andere Regionen auffällig deaktiviert waren. Warum sie das waren, wird von Mellet et al. (1995) jedoch nicht erklärt, ebenso wie in den meisten anderen Studien nicht erklärt wird, warum bestimmte Regionen erregt und andere eher deaktiviert sind.

In dieser Studie, wie auch vielen anderen, die diese Technik verwenden, ist vor allem die große Variationsbreite über die verschiedenen Teilnehmer auffallend. Auch die Daten eines einzelnen Teilnehmers, über den Mellet et al. (1995) detaillierter berichten, variieren stark. Die wenigsten Studien aus diesem Bereich enthalten Berichte über einzelne Teilnehmer. Zudem fällt bei den Graphiken auf, dass Differenzwerte, die tatsächlich sehr gering waren, in den Abbildungen knallrot dargestellt wurden – auffälligen Farbunterschieden liegen nicht notwendigerweise ebenso gravierende Messwertunterschiede zugrunde. Zudem, wenn man die Daten genauer betrachtet, wird klar, dass diese Unterschiede nur im Durchschnitt gelten. Würde man die Werte für jeden Teilnehmer einzeln graphisch darstellen, bei jedem wäre eine andere Region knallrot eingefärbt. Trotz dieser erstaunlichen interindividuellen Variationsbreite schließen die Autoren sehr sicher, dass „mentales Vorstellen“ mit einer Erregung des oberen occipitalen Cortex einhergehe. Mellet et al. (1995) folgern weiter, dass die gespeicherten visuellen Repräsentationen hier ihren Sitz hätten.

Diese Variationsbreite ist typisch für die Experimente in den kognitiven Neurowissenschaften. Selten findet man eine Replikation von einer Gruppe zur nächsten, recht selten sind Replikationen bei einem Individuum und extrem selten ist die Replikation der Ergebnisse von einem Individuum bei einem anderen (Cabeza & Nyberg, 1997, 2000). Besonders bezeichnend sind die Unterschiede in den Ergebnissen von Studien, die dieselbe Aufgabe beinhalteten. So war bei fünf Studien, die alle den sogenannten Stroop-Test (die Versuchsperson muss die Farben benennen, in der bestimmte Farbwörter – blau grün etc. – geschrieben sind; die Farbwörter sind nicht in „ihrer“ Farbe gedruckt, d. h. z. B. „blau“ ist nicht blau geschrieben) verwendeten, um so die „Aufmerksamkeit“ zu erfassen, keine einzige Gehirnregion bei allen fünf Studien aktiviert.

Eines der Hauptprobleme der kognitiven Neurowissenschaften liegt in der Übernahme ungeprüfter mentalistischer Konzepte (wie „mentales Vorstellen“). Die kognitiven Neurowissenschaften setzen voraus, dass die „kognitiven Atome“ bereits entdeckt wurden. Aber es scheint in diesen PET-Experimenten unmöglich zu sein, eine Experimentalbedingung zu schaffen, die von der Kontrollbedingung durch nur eine Aktion des Gehirns unterschieden ist. Die kognitiven Neurowissenschaftler setzen aber voraus, dass es so eine Art Periodensystem der kognitiven Elemente gibt. Das Problem ist, dass man jeden der von den Kognitionswissenschaftlern angenommenen basalen Prozesse ohne weiteres in weitere Subprozesse aufspalten kann (wobei man sich fragen muss, welcher Sinn darin zu sehen ist, ein vages Konstrukt durch drei andere vage Konstrukte zu ersetzen). Bei weitem herrscht hier keine Einigkeit.

Kognitive Neurowissenschaftler können nicht darlegen, warum unbeobachtete kognitive Konstrukte sinnvolle Bezeichnungen für bestimmte Gehirnregionen sein sollen. Uttal (2001) hat daher die kognitiven Neurowissenschaften bereits als die „Neue Phrenologie“ bezeichnet. Bestenfalls, so Faux (2002), bringen uns die PET-Messungen dazu, statt nicht mehr zu wissen, was im ganzen Gehirn vor sich geht, nicht mehr zu wissen, was in einem bestimmten Gyrus vor sich geht.

Zudem sind PET und verwandte Techniken keine direkten Messungen der Gehirnaktivität, sondern nur des Blutflusses im Gehirn. Dies ist insofern relevant, als auch hemmende Neuronen (die in der Gehirntätigkeit eine große Rolle spielen und deren Zweck darin besteht, die Aktivität anderer Neuronen zu hemmen) Sauerstoff und Nährstoffe verbrauchen.

Es ist mehr als zweifelhaft, dass die Wissenschaft dadurch voranschreitet, dass grobe physiologische Messungen vorgenommen werden, um schlecht definierte kognitive Konstrukte zu stützen.

Diese kognitiven Konstrukte werden in diesen Forschungen auch nicht getestet: Zwar werden immer wieder die Gehirn-Karten revidiert, jedoch nie diese Konstrukte wirklich auf die Probe gestellt. Sie werden einfach als gegeben vorausgesetzt.

Hinter all der kognitiven Neurowissenschaft scheint überall der berüchtigte Homunculus im Kopf, das cartesianische Theater, von dem aus alle anderen Aktivitäten gesteuert werden, hindurch. Immer wieder wird auf eine zentrale Exekutive verwiesen, einen Mechanismus, der Output produziert, ohne von Input abhängig zu sein. Diese zentrale Exekutive wird immer dann postuliert, wenn kein direkter Umwelteinfluss beobachtet werden kann. Der „Willen“ stellt somit die Restmenge jenes Verhalten dar, das nicht unter der Kontrolle des Forschers steht.

Literatur

Cabeza, R. & Nyberg, L. (1997). Imaging cognition: An empirical review of PET studies with normal subjects. Journal of Cognitive Neuroscience, 9(1), 1-26.

Cabeza, R. & Nyberg, L. (2000). Imaging cognition II: An empirical review of 275 PET and fMRI studies. Journal of Cognitive Neuroscience, 12(1), 1-47.

Faux, S. F. (2002). Cognitive neuroscience from a behavioral perspective. A critique of chasing ghosts with geiger counters. The Behavior Analyst, 25(2), 161-173.

Mellet, E.; Tzourio, N.; Denis, M. & Mazoyer, B. (1995). A positron emission tomography study of visual and mental spatial exploration. Journal of Cognitive Neuroscience, 7(4), 433-445.

Skinner, B. F. (1938). The Behavior of Organisms. New York: Appleton-Century-Crofts.

Skinner, B. F. (1953). Science and Human Behavior. Reno, NV: MacMillan.

Skinner, B. F. (1984). Methods and theories in the experimental analysis of behavior. Behavioral and Brain Sciences, 7(4), 511-546.

Skinner, B. F. (1990). Can psychology be a science of mind? American Psychologist, 45(11), 1206-1210.

Uttal, W. R. (2001). The new phrenology: The limits of localizing cognitive processes in the brain. Cambridge, Mass.: MIT Press.

2 Kommentare

Eingeordnet unter Philosopie, Psychologie, Verhaltensanalyse

Freud als Pseudowissenschaftler

Ich empfehle die Lektüre der Werke Freuds allen meine Leserinnen und Lesern sehr (ebenso meinen Studentinnen und Studenten). Sigmund Freud ist ein begnadeter Erzähler, dessen Werke über weite Strecken sehr unterhaltsam zu lesen sind (er schreibt auch ein sehr gutes Deutsch), sie sind voller überraschender Beispiele und Anekdoten. Auch seine Erklärungen sind – als Gedankenspiele – sehr anregend. Wahrscheinlich hat Freud seine Popularität unter anderem auch diesem Umstand zu verdanken. Besonders empfehlen kann ich persönlich die „Traumdeutung“, „Der Witz und seine Beziehung zum Unbewussten“ und „Zur Psychopathologie des Alltagslebens“.

Noch unterhaltsamer wird die Freud-Lektüre, wenn man beim Lesen darauf achtet, welche Kniffe Freud anwendet, um seine Leser für sich einzunehmen. Anthony Derksen (2001) hat die Strategien, die Freud nutzte, um zu überzeugen, zusammengefasst. Er nennt sie die „sieben Strategien des fortgeschrittenen Pseudowissenschaftlers“.

Derksen (2001) erklärt, warum Freud auch bei ansonsten sehr kritischen und wissenschaftlich denkenden Geistern kaum als Pseudowissenschaftler auffällt. Freud ist, so Derksen, ein sehr geschickter Pseudowissenschaftler. Er benutzt alle sieben Strategien des Pseudowissenschaftlers auf raffinierte Art und Weise und wirft so eine der großartigsten Nebelbomben der Geistesgeschichte.

Von diesen sieben Strategien sind nicht alle für sich allein verwerflich, einige gleichen sogar sehr lobenswerten Grundsätzen. In der Art, wie Freud sie jedoch zusammen mit den anderen Strategien anwendet, dienen sie perfekt der Verschleierung der Tatsache, dass die Psychoanalyse eine Pseudowissenschaft ist.

Die sieben Strategien sind die folgenden

  1. Die Strategie des ehrlichen Empiristen.
    Freud betont immer wieder, dass man sich auf die unvoreingenommene Beobachtung stützen müsse. Er macht den Empirismus – im Gegensatz zum Vorgehen der Philosophen – sogar nachgerade zu seiner höchsteigenen Sache. Nur wird er dieser Forderung in seinem Vorgehen nie selbst gerecht.
  2. Die Strategie der rücksichtslosen Selbstkritik
    Freud führt in seinen Schriften oft einen scharfen Kritiker seiner selbst ein, der alles, was Freud vertritt, für fragwürdig erklärt. Jedoch verlaufen sich diese Ansätze immer in einer rhetorischen falschen Fährte. Die ursprüngliche Kritik wird am Ende nie beantwortet, sondern nur als beantwortet hingestellt. Skeptiker kennen diese Strategie von anderen Pseudowissenschaftlern: „Also ich bin ja total skeptisch, aber…“
  3. Die Strategie, unvoreingenommen zu sein
    Freud betont immer wieder, seine Prämissen im Lichte widersprechender Befunde jederzeit aufgeben zu wollen. Jedoch tut er das nie. Entweder er gibt nur Prämissen auf, die gar nicht seine eigenen waren oder er verwendet die oben beschriebene Strategie der rücksichtslosen Selbstkritik. Trotzdem erzeugt er beim Leser den Eindruck, quasi von den Tatsachen zur Annahme bestimmter Punkte seiner Theorie gezwungen worden zu sein.
  4. Die Strategie des schlagenden, aber irrelevanten Beispiels
    Freud ist ein Meister im Anführen schöner – aber für die jeweils zu belegende Behauptung irrelevanter – Beispiele. Man nehme Freuds Fehlleistung, immer „Klosetthaus“ statt „Korsetthaus“ zu lesen, als er dringend auf die Toilette musste: Für seine Theorie von den Impulskonflikten als Ursache der Fehlleistungen ist das Beispiel völlig bedeutungslos.
  5. Die Strategie des Beleges an anderer Stelle
    Freud verweist mit Vorliebe auf Belege an anderer Stelle (bei sich selbst oder bei anderen). Er kleidet dies geschickt in didaktische Vorwände und ermuntert den Leser geradezu, seinen Behauptungen nicht zu trauen und zu prüfen. Nur finden sich an den von Freud angegebenen Stellen entweder überhaupt keine relevanten Belege oder aber nur die nach den oben erwähnten Mustern gestrickten rhetorischen Kniffe.
  6. Die Strategie des günstigen Kompromisses
    Freud räumt in seinen Schriften oft dem bereits erwähnten imaginären Kritiker einen scheinbar für diesen günstigen Kompromiss ein. Im Endeffekt erweist sich dieser Kompromiss jedoch immer als eine glatte Bestätigung von Freuds eigentlicher Position. So gelingt es Freud, den Anschein zu erwecken, auf seine Kritiker wirklich ernsthaft einzugehen.
  7. Die Strategie, methodischen Scharfsinn zu zeigen
    Es gibt zahlreiche Zitate von Freud, die ein skeptisch-wissenschaftlicher Psychologe jederzeit unterschreiben könnte, Zitate, die von tiefer Einsicht in die methodischen Probleme der Psychologie zeugen. Nur werden diese methodischen Grundsätze (z. B. bezüglich des Suggestionsvorwurfes) von Freud nie in die Praxis umgesetzt. Im Grunde dient diese Strategie demselben Ziel wie die der rücksichtslosen Selbstkritik.

Derksen (2001) gesteht Freud zu, dass er in der Tat um wissenschaftliche Redlichkeit bemüht gewesen sein mag. Nur hat sich dieser Vorsatz nie in wirklichem Handeln niedergeschlagen. Freud war nicht nur unredlich gegen den Leser, er war es mit hoher Wahrscheinlichkeit auch gegen sich selbst. Als brillanter Rhetoriker blendete er nicht nur andere, sondern vor allem sich selbst.

Literatur

Derksen, A. A. (2001). The seven strategies of the sophisticated pseudo-scientist. Journal for General Philosophy of Science, 32(2), 329-350. https://doi.org/10.1023/a:1013100717113

Hinterlasse einen Kommentar

Eingeordnet unter Geschichte, Kritik, leichte Kost, Psychologie

Wie „erblich“ sind Intelligenz und das Auftreten psychischer Störungen?

Das Thema kam in meinem Umfeld auf und statt einen umfassenden Artikel dazu zu schreiben, gebe ich hier meine Notizen zu Jay Josephs (2004) Buch „The gene illusion“ wieder, in der er die methodischen Schwächen der Erblichkeitsforschung auflistet und begründet. Vielleicht schreibe ich zu diesem immer wieder gerne sehr emotional diskutierten Thema gelegentlich noch mehr. Für weitere Informationen empfehle ich auch die Beiträge in diesem Blog zum Schlagwort „Biologie„.

Das Konzept der Erblichkeit, so Joseph (2004), wurde für die Tier- und Pflanzenzucht entwickelt. Unglücklicherweise wird es heutzutage als eine Zahlenangabe über das Verhältnis des Einflusses von Genen und Lernerfahrungen angesehen.

Es gibt eine Vielzahl von Fehlerquellen, die die Erblichkeitsforscher nicht in den Griff bekommen haben. Zum Beispiel wurden alle Adoptionsstudien, die die Erblichkeit von Schizophrenie untersuchen sollten, in Ländern oder Regionen durchgeführt, in denen (früher oder noch aktuell) eugenisch begründete Gesetze zur Sterilisation von erkrankten Personen galten. Dies hatte zur Folge, dass Kinder von Eltern, die psychisch krank waren, nicht so schnell adoptiert wurden wie Kinder, deren Eltern psychisch unauffällig waren. Adoptiveltern wollten nicht riskieren, dass das Kind, das sie adoptierten, psychisch krank wurde und infolgedessen vielleicht auch noch sterilisiert wurde. Diese Kinder befanden sich deshalb länger in Einrichtungen und wurden letztlich von Familien adoptiert, in denen die psychosozialen Voraussetzungen ungünstiger für sie waren. Es ist kein Wunder, dass diese Kinder dann auch häufiger tatsächlich eine psychische Erkrankung erwarben. Das gleiche gilt für Kinder, die die von kriminellen Eltern abstammen. Die wenigsten potentiellen Adoptiveltern sind bereit, ein Kind aus einer solchen Familie zu adoptieren, insbesondere dann nicht, wenn sie von vielen Seiten erfahren, dass solche Eigenschaften hochgradig erblich sein sollen. Dies hat wiederum zur Folge, dass auch solche Kinder länger im Heim bleiben und letztlich in den eher “ungünstigen“ Familien landen.

Die meisten Adoptiveltern haben jedoch einen überdurchschnittlichen IQ und können ihren Adoptivkindern eine überdurchschnittlich gute Umwelt bieten. Daraus folgt notwendigerweise, dass die Korrelation zwischen dem IQ des Kindes und dem der Adoptiveltern nicht sehr hoch sein kann, da die Varianz auf Seiten der Adoptiveltern relativ gering ist.

Intelligenztests sind keine objektiven Messinstrumente, denn sie messen nicht Eigenschaften wie die Körpergröße, sondern ein hypothetisches Konstrukt: Intelligenz ist das Ergebniss einer Schlussfolgerung, die aus dem Verhalten einer Person abgeleitet wird. Intelligenztests werden extra so konstruiert, damit sie eine bestimmte Verteilung erzeugen, wenn sie einer Stichprobe von Personen vorgegeben werden. Die ersten Intelligenztests waren noch so konstruiert, dass Frauen dort systematisch schlechter abschnitten als Männer. Spätere Intelligenztests wurden so konstruiert, dass Frauen und Männer in etwa gleich gute Ergebnisse erzielten. Das schlechtere Abschneiden von bestimmten Ethnien und Gesellschaftsschichten ist in gewisser Weise in die meisten standardisierten Intelligenztests eingebaut. Man kann daher nicht mit den Ergebnissen von Intelligenztest argumentieren, um zu belegen, dass die Angehörigen bestimmter Schichten oder Ethnien weniger intelligent sind als andere. Mit Intelligenztests gemessene Intelligenzunterschiede verschwinden, wenn sich die gesellschaftlichen Bedingungen verändern. Beispielsweise schnitten Südafrikaner niederländischer Herkunft (Afrikaaner) um 1950 herum in Intelligenztests ungefähr eine halbe Standardabweichung schlechter ab als Südafrikaner britischer Herkunft. Dies änderte sich, als die Afrikaaner in Südafrika zur herrschenden Schicht wurden. Um 1970 herum war dieser Unterschied komplett verschwunden.

Sämtliche Forschungen zur Erblichkeit von Intelligenz, Persönlichkeitseigenschaften, psychischen Erkrankungen, Kriminalität usw. wurden nie ergebnisoffen durchgeführt, sondern waren immer motiviert durch das Bestreben der Forscher, Hinweise für eine bedeutsame Rolle der Gene bei der Ausprägung dieser Eigenschaften und Konstrukte zu finden. Viele dieser Forscher waren zudem Anhänger der Eugenik. Dies lässt sich schon bei Francis Galton aufzeigen. Seinen Forschungen waren so stark fehlerbehaftet, dass sie praktisch nicht verwertbar sind. Er fragte bei 600 Personen an, von denen er wusste, dass sie Zwillinge waren oder die Verwandten von Zwillingen, er erhielt aber nur 159 Antworten. Aus diesem Antworten suchte er 35 Fälle von Zwillingen, die sich sehr ähnlich waren und 20 Fälle von Zwillingen, die sehr unterschiedlich waren, heraus. Im Gegensatz zu dem, was heutzutage verbreitet wird, verglich Galton nicht eineiige und zweieiige Zwillinge. Er benutzte lediglich einige, aus zweiter oder dritter Hand überlieferte Fälle, um seine bereits vorgefassten Anschauungen zu illustrieren. Galtons Schriften als wissenschaftliche Untersuchungen darzustellen, verhöhnt die wissenschaftliche Methode als Ganzes. Dennoch ist Galton zu Recht als der Vater der Eugenik und der Zwillingsforschung bezeichnet worden.

Die eigentliche Zwillingsforschung begann im 20. Jahrhundert in Deutschland. Die Begründer der Zwillingsforschung (Joseph nennt hier Hermann Siemens) und ihre Schüler betrieben ihre Forschungen praktisch ohne Unterbrechung vor, während und nach der Zeit des Naziregimes in Deutschland weiter. Bruno Schulz, der sich während der Nazizeit mehrfach zustimmend zur Rassenhygiene und zur Sterilisation genetisch minderwertiger Personen geäußert hatte (was von Heinrich Himmler und andere Nazigrößen wohlgefällig aufgenommen wurde), gründete nach dem Krieg die Abteilung für Genealogie und Demographie des Max-Planck-Instituts für Psychiatrie in München. Diese Verquickungen mögen der Grund sein, warum ihre eigentlichen Gründerväter von heutigen, internationalen Zwillingsforschern kaum mehr genannt werden. Nichtsdestotrotz bezieht man sich in Überblicksarbeiten und Metastudien auf die Daten dieser deutschen Forscher, wenn es darum geht, die These von der überwiegenden Erblichkeit bestimmter mentaler Eigenschaften zu untermauern. Ansonsten wird die Verquickung jener Pioniere der Erblichkeitsforschung mit dem Naziregime gerne geleugnet. Viele tragende Säulen des Systems werden zu Kritikern und Verfolgten des Naziregimes stilisiert (vergleiche etwa den Wikipedia-Artikel zu Bruno Schulz, in dem es heißt, er habe die Sterilisierungspolitik des Nationalsozialismus „implizit infrage gestellt“). Franz Kallmann etwa wird als jüdischer Emigrant dargestellt, der Hitlers Deutschland entfloh. Tatsächlich war Kallmann 1935 in Deutschland noch aktiv und setzte sich für die zwangsweise Sterilisation von Menschen, die die Diagnose Schizophrenie erhalten hatten sowie deren Angehörigen ein. Auch nach seiner Flucht trat er 1938 noch für „negative eugenische Maßnahmen“ gegen die „Überträger von Geisteskrankheiten“ ein. 1953 dagegen behauptete er, er habe seine Familienstudie vor allem deshalb unternommen, um die Erblichkeit von Schizophrenie zu widerlegen. Nichtsdestotrotz war er noch in den fünfziger und sechziger Jahren aktiv in der amerikanischen eugenischen Gesellschaft.

Nach dem Zweiten Weltkrieg bis in die sechziger Jahre erlebte die Erblichkeitsforschung einen Tiefpunkt. Doch beginnend in den siebziger Jahren und verstärkt in den achtziger und neunziger Jahren des 20. Jahrhunderts erhielt sie wieder Auftrieb. Sie diente vor allem als Rechtfertigung für die Ungleichheiten und Ungerechtigkeiten des kapitalistischen Systems. Auch die pharmazeutische Industrie hatte ein Interesse daran, psychische Erkrankungen als biologisch bedingt darzustellen. Als Durchbruch wurden die Studien zu getrennt aufgewachsenen Zwillingen in Minnesota gefeiert (z. B. Lilienfeld, 2014), doch kranken diese, so Joseph (2004), an den gleichen Schwächen wie alle früheren Studien.

Der große Schwachpunkt der Zwillingsforschung ist die Annahme der Gleichartigkeit der Umwelten von eineiigen und zweieiigen Zwillingen. Eineiige Zwillinge haben (mehr oder weniger) zu 100 % identische Gene. Die Gene von zweieiigen Zwillingen stimmen dagegen nur zu 50 % überein. Die Zwillingsforschung setzt voraus, dass eineiige und zweieiige Zwillinge in einer im gleichen Ausmaß ähnlichen Umwelt aufwachsen. Doch ist die Umwelt von eineiigen Zwillingen deutlich ähnlicher als die Umwelt von zweieiigen Zwillingen. Eineiige Zwillinge erkennt man vor allem daran, dass sie sich „wie ein Ei dem anderen gleichen“. Zweieiige Zwillinge können dagegen so verschieden aussehen wie Geschwister im Allgemeinen. Sie werden von ihrer Umwelt deutlich unterschiedlicher behandelt als eineiige Zwillinge. Eineiigen – und nicht zweieiigen – Zwillingen passiert es häufig, dass sie miteinander verwechselt werden. Eineiige Zwillinge haben häufiger die gleichen Freunde, sie verbringen mehr Zeit miteinander und sie werden von ihren Eltern, Verwandten, Lehrern und Bekannten häufiger so behandelt, als wären sie eine Person, als dies bei zweieiigen Zwillingen der Fall ist. Die Logik der Zwillingsforschung setzt jedoch voraus, dass die Umwelt von eineiigen Zwillingen nicht ähnlicher ist als die Umwelt von zweieiigen Zwillingen. Mit der Kritik an dieser Annahme konfrontiert, greifen die Zwillingsforscher jedoch zum Mittel der Beweislastumkehr. Die Kritiker müssten nachweisen, dass die ähnlichere Umwelt von eineiigen Zwillingen einen systematischen Einfluss auf die untersuchten Eigenschaften habe, ansonsten sei das Argument irrelevant. Interessanterweise können Kritiker selbst dieser unfairen Anforderung genügen. So werden Menschen, die attraktiv sind, von ihrer Umwelt positiver wahrgenommen und gefördert, wohingegen bei unattraktiven Menschen das Risiko einer psychischen Erkrankung höher ist. Das herausragende Merkmal von eineiigen Zwillingen ist ihr identisches Äußeres. Die erhöhte Konkordanz des Auftretens von psychischen Erkrankungen bei eineiigen Zwillingen lässt sich zum Teil durch deren identisches Äußeres erklären.

Am überzeugendsten scheinen die Studien von eineiigen Zwillingen, die getrennt aufwuchsen. Dabei muss man zwei Erzählstränge unterscheiden. Der eine Erzählstrang ist der folkloristische. Es wimmelt von Erzählungen von getrennt aufgewachsenen eineiigen Zwillingen, die sich in erstaunlicher Weise ähneln. All diese Erzählungen stellen lediglich anekdotische Evidenzen dar. Und auch eine Häufung von solchen Erzählungen belegt nichts: die Mehrzahl von Anekdoten ist nun mal nicht Daten. Einem Journalisten auf der Suche nach einer guten Story mag man es noch durchgehen lassen, wenn er solche Anekdoten verbreitet. Die Forscher auf diesem Gebiet distanzieren sich natürlich von solchen Geschichten, wenn sie von anderen Wissenschaftlern dazu befragt werden. Doch sie geben gegenüber Journalisten diese Geschichten gerne weiter, obwohl sie, wenn sie ihren wissenschaftlichen Sachverstand benutzen würden, wissen müssten, dass diese Geschichten rein gar nichts aussagen. Sie verhalten sich dabei in ähnlicher Weise wie „wissenschaftlich arbeitende“ Parapsychologen, die gegenüber Skeptikern zugeben, dass Alltagsanekdoten von Telepathie (ein alter Freund, an den ich gerade gedacht hatte, ruft mich just in diesem Moment an) keine Aussagekraft haben, solche Geschichten aber gegenüber Journalisten gerne zum Besten geben.

Der zweite Erzählstrang bezüglich der Studien zu getrennt aufgewachsenen eineiigen Zwillingen bezieht sich auf die Übereinstimmung in bestimmten Testergebnissen (zum Beispiel Persönlichkeitsfragebogen und Intelligenztests). Zu diesen Studien muss angemerkt werden, dass die allerwenigsten dieser „getrennt aufgewachsenen“ eineiigen Zwillinge tatsächlich keinerlei Kontakt zueinander hatten und tatsächlich in deutlich unterschiedlichen Umwelten aufwuchsen. Oft bestand über Jahrzehnte hinweg ein Kontakt zwischen den Zwillingen. Ein anderer methodischer Fehler ist die Stichprobenauswahl. Viele getrennt aufgewachsene eineiige Zwillinge wurde nur deshalb gefunden und in die Studie aufgenommen, weil sie sich in so frappierende Weise ähnelten (ungefähr 90 % der bekannten Fälle von getrennt aufgewachsenen eineiigen Zwillingen wurden genau deshalb untersucht, weil sie sich so ähnlich waren). Doch selbst wenn man voraussetzt, dass diese Stichproben eine nennenswerte Anzahl an tatsächlich getrennt aufgewachsenen Zwillingen enthalten würden, so gibt es doch einige prinzipielle methodische Probleme. Getrennt aufgewachsene eineiige Zwillinge wachsen dennoch in einer hochgradig gleichartigen Umwelt auf. Sie gehören der gleichen Alterskohorte an. Dies hat großen Einfluss auf die Ausprägung bestimmter Persönlichkeitsmerkmale. Personen, die bspw. ihre Kindheit und Jugend unmittelbar nach dem Zweiten Weltkrieg verbrachten, legen häufiger großen Wert auf Sparsamkeit und Fleiß. Getrennt aufgewachsene eineiige Zwillinge wachsen in der Regel dennoch im gleichen Land auf. Sie sind sich desto ähnlicher, je konformistischer die Kultur ist, in der sie aufwachsen. Sie gehören derselben Ethnie an. Sie haben das gleiche Geschlecht, wachsen oft in derselben Kultur oder Subkultur und in der gleichen Region auf. Sie sind beide freiwillig bereit, an einer Untersuchung zur Erblichkeit von Persönlichkeitsmerkmalen und intellektuellen Fertigkeiten teilzunehmen. Sie hatten die gleiche vorgeburtliche Umwelt.

Weitere methodische Schwächen der Studien zu den getrennt aufgewachsenen eineiigen Zwillingen betreffen die Datenerhebung. Die getrennt aufgewachsenen eineiigen Zwillinge wurden oft vom selben Untersucher befragt. Diese Tests waren also in keiner Weise verblindet. Hinzu kommt der Umstand, dass die Zwillinge adoptiert wurden. Kinder aus intakten, wohlhabenden Familien werden selten zur Adoption freigegeben. 90 % der getrennt aufgewachsenen eineiigen Zwillinge stammen aus armen Familien, dies verzerrt die Stichprobe. Kinder, die zur Adoption freigegeben werden, werden nicht einfach zufällig irgendwelchen Familien zugeordnet. Die Jugendämter achten darauf, dass die Adoptiveltern den Kindern in bestimmter Hinsicht gleichen. Sie achten in der Regel auch darauf, dass die Adoptiveltern nicht straffällig geworden sind, psychisch gesund sind und ökonomisch so gut gestellt sind, dass sie gut für die Adoptivkinder sorgen können. Sehr häufig werden Kinder von Verwandten adoptiert. Betrachtet man die verfügbaren Daten zu den Stichproben genauer (die Erblichkeitsforscher sind in der Regel nicht bereit, ihre Rohdaten anderen Forschern zur Verfügung zu stellen, oft mit dem Argument, die Privatsphäre ihrer Versuchspersonen schützen zu wollen; andererseits zerren sie ihre besonders beeindruckenden Fälle jederzeit gerne an die Öffentlichkeit) stellt man fest, dass praktisch kein Zwillingspärchen tatsächlich seit der Geburt keinen Kontakt mehr zueinander hatte und tatsächlich in sehr unterschiedlichen Umwelten aufwuchs. In den bekannten Einzelfällen, in denen dies der Fall war, zeigt sich dagegen oft, dass die Zwillinge dann auch sehr unterschiedlich waren, was ihre Persönlichkeit und ihre Intelligenz angeht. So wird über ein Paar aus der Minnesota-Studie berichtet, das tatsächlich in sehr unterschiedlichen Umwelten aufwuchs. Einer der Zwillinge wurde von Analphabeten adoptiert, der andere von einem besser ausgebildeten Ehepaar. Der Unterschied im IQ zwischen den beiden Zwillingen betrug 29 Punkte. Die Zwillingsforscher versuchten, diesen Unterschied damit weg zu erklären, indem sie unterstellten, dass der bei den Analphabeten aufgewachsene Zwilling eine Art Gehirnschaden bei der Geburt erlitten habe. Dafür wurde jedoch keinerlei Beleg vorgebracht.

Getrennt aufgewachsene eineiige Zwillinge werden in den Studien mit getrennt aufgewachsenen zweieiigen Zwillingen verglichen. Auch hier zeigen sich systematische Fehler. Die getrennt aufgewachsenen eineiigen Zwillinge der Minnesota-Studien hatten doppelt so oft wie die getrennt aufgewachsenen zweieiigen Zwillinge vor Beginn der Untersuchung bereits Kontakt zueinander. Es kommt noch besser: 16 von 53 getrennt aufgewachsenen zweieiigen Zwillingen dieser Studien hatten nicht das gleiche Geschlecht! Die Testergebnisse für diese Pärchen werden in den Studien aber nicht getrennt aufgelistet. Es versteht sich von selbst, dass sich Brüder und Schwestern stärker voneinander unterscheiden als gleichgeschlechtliche Zwillingspaare.

Folgt man der Logik der Erblichkeitsforscher, so müsste man argumentieren, dass die Art und Weise, wie Menschen sich anziehen, eine direkte Konsequenz ihrer Gene ist. Eineiige Zwillinge ziehen sich oft in gleicher Art und Weise an, was bei zweieiigen Zwillingen eher selten vorkommt. Demnach muss also die Wahl der Kleidung eine mehr oder weniger ausschließlich erblich bedingte Eigenschaft sein.

Angaben zur Erblichkeit einer Eigenschaft haben eigentlich nur dann Sinn, wenn man Menschen, Tiere oder Pflanzen züchten möchte. Sie sagen lediglich etwas über das Ausmaß der Variation in diesen Eigenschaften aus, sie können nichts zu der Frage nach den Ursachen dieser Eigenschaften beitragen.

Literatur

Joseph, J. (2004). The gene illusion : Genetic research in psychiatry and psychology under the microscope. New York: Algora Pub.
Lilienfeld, S. O. (2014). Psychology : from inquiry to understanding (3rd). Boston: Pearson.

2 Kommentare

Eingeordnet unter Entwicklung, Kritik, Psychologie

Mentalismus – von den Gefahren, die drohen, wenn man Unterschiede zwischen Menschen auf „innere Faktoren“ zurückführt

Jay Moore (2003) hat vor fast 20 Jahren schon einmal zusammengefasst, warum es problematisch ist, Unterschiede zwischen Menschen auf (echte oder vermeintliche) innere Faktoren zurückzuführen – aus wissenschaftlicher und aus ethischer Sicht.

Verhaltensanalytiker zeichnen sich durch ihr hauptsächliches Interesse an den Kontingenzen, die das Verhalten kontrollieren, durch ihre Abgrenzung vom Mentalismus und ihre Überzeugung, dass sich die soziale Umwelt planen und verändern lässt, aus. Der Mentalismus dagegen vertritt die Ansicht, dass eine angemessene Erklärung von Verhalten den Bezug auf vermeintliche innere mentale Phänomene enthalten muss. Dieser vertritt entweder einen formalen und expliziten Dualismus (es gibt eine geistige und eine physische Welt) oder aber einen epistemiologischen Dualismus, der besagt, dass es eine geistige Sphäre gibt, die zwar physisch begründet ist (als Gehirnaktivität), die aber nicht untersuchbar sondern nur erlebbar ist (vgl. Psychologie als Wissenschaft vom Verhalten und Erleben des Menschen). Diesem epistemiologischen Dualismus huldigen nicht nur Philosophen und die gesamte traditionelle Psychologie, sondern auch der sogenannte Neo-Behaviorismus, der die vermittelnde Qualität innerer Prozesse anerkennt. In der akademischen Psychologie erwirbt man sich z. Zt. am besten seine Sporen, indem man neue Mentalismen erfindet und popularisiert. Wir haben aus der Medizin eine Tendenz übernommen, unser wissenschaftliches Heil in inneren Vorgängen zu suchen und wir erfinden notfalls welche, wenn sie nicht direkt untersuchbar sind. Zudem werden mentalistische Erklärungen – als ein verbales Verhalten – durch die soziale Umwelt aufrechterhalten: Der Laie kennt das „Erleben und Verhalten“ vor allem aus der Innenansicht und er ist geneigt, in Ersterem die Ursache für Letzteres zu sehen.

Ein Auswuchs des Mentalismus ist die Attributionstheorie. Attributionstheoretiker selbst haben den sogenannten fundamentalen Attributionsfehler entdeckt: Dass die meisten Menschen unangemessenerweise das Verhalten anderer Menschen auf dispositionelle Faktoren attribuieren. Der „fundamentale Attributionsfehler“ an sich ist bereits ein Fehler, denn er setzt voraus, dass Dispositionen überhaupt Ursachen von Verhalten sein können. Ebenso ein Fehler an sich ist das sogenannte Konsistenzparadox: Der Umstand, dass wir das Verhalten anderer Menschen über verschiedene Situationen hinweg als konsistenter einschätzen als dies eigentlich der Fall ist. Für den Verhaltensanalytiker ist das Verhalten immer eine Funktion der gegenwärtigen und der früheren „Situation“ – das Paradox existiert für ihn somit nicht. Wer nun solche dispositionellen Faktoren als Ursachen von Verhalten propagiert, der leistet – gewollt oder ungewollt – der Diskriminierung von Minderheiten Vorschub. Denn wenn das Verhalten einer Person, die einer bestimmten Gruppe von Personen (z. B. von gleicher Hautfarbe oder Nationalität) angehört, durch eine Disposition bestimmt ist, dann ist es zumindest fraglich, ob dieses Verhalten überhaupt geändert werden kann. Warum sollte man es also überhaupt versuchen? Aus Sicht der Verhaltensanalyse dagegen mögen Verhaltensrepertoires gelegentlich zwar gut organisiert und strukturiert sein, aber sie sind nicht durch „innere Ursachen“ determiniert.

Das Konzept der „Intelligenz“ ist ein weiterer bedenklicher Aspekt des Mentalismus. Intelligenz wird für gewöhnlich als eine mentale Eigenschaft eines Menschen betrachtet. Die stereotype mentalistische Betrachtungsweise der Intelligenz hat in der Geschichte bereits viel Leid über die Menschen gebracht (erinnert sei hier an die Ausgrenzung von osteuropäischen und anderen Einwanderern in den USA aufgrund der Ergebnisse von Intelligenttests). Ebenso bedenklich ist die mentalistische Interpretation der Intelligenzunterschiede zwischen Männern und Frauen. Die kognitive Neurowissenschaft unterfüttert diese Interpretation mit den Unterschieden in der Gehirnstruktur. Eine Implikation des Mentalismus ist die Folgerung, dass bei geringer Intelligenz keine Förderung von Nöten ist, denn sie ist ein inhärentes Merkmal der Person: Wenn Frauen bestimmte Aufgaben nicht so gut bewältigen wie Männer, weil ihre Neuronen irgendwie anders sind als die von Männern, warum sollten sie dann nicht am Besten „barfuss und schwanger in der Küche stehen“, wie Moore es umschreibt?

Aus Sicht der Verhaltensanalyse ist „Intelligenz“ nur eine weitere mentalistische Erklärungskrücke. Menschen unterscheiden sich: Sie haben unterschiedliche genetische Ausstattungen, die bedingen, dass sie in unterschiedlicher Weise für die Einflüsse ihrer Umwelt empfänglich sind. Zweifelsohne ist auch das Verhaltensrepertoire eines Menschen aus einer gehobenen sozialen Schicht entwickelter als das eines Menschen aus einer niedrigern sozialen Schicht.  Aus der mentalistischen Sicht folgt hier aber der pädagogische Pessimismus. Wir werden mit Programmen und Interventionen wenig Erfolg haben, solange wir an dem Bezug auf traditionelle mentalistische Erklärungen von Intelligenz festhalten.

Sicher werden bestimmte Aktivitäten des Menschen durch bestimmte anatomische Strukturen ermöglicht. Wir sehen z. B. an den Opfern von Schlaganfällen, dass sie bestimmte Aufgaben nicht mehr oder nur noch schlecht ausführen können. Alle diese Belege aber sind nur eine vage Grundlage für die mentalistischen Metaphern vom Speichern und Abrufen von Informationen. Bei weitem ist kein Bezug herstellbar zwischen den Modellen zur Informationsverarbeitung der kognitiven Psychologie und den Synapsen, Neuronen und Gehirnregionen. Das Verhalten sollte die Suchrichtung für den Physiologen vorgeben. Die traditionelle Psychologie ist verantwortlich für eine gigantische Verschwendung an Forscherarbeit, indem sie Physiologen nach den neuronalen Entsprechungen von mentalistischen Konstrukten suchen ließ.

Schon John Stuart Mill beklagte, wie vulgär es sei, die Diversität von Verhalten und Charakteren auf natürliche Unterschiede zurückzuführen. Der Verführung des Mentalismus erlagen jedoch auch die ersten Behavioristen – indem sie die Naturwissenschaft vom Verhalten zu einer „kognitiven“ Psychologie zu transformieren versuchten (bestes Beispiel: Bandura).

Moore, J. (2003). Behavior analysis, mentalism and the path to social justice. The Behavior Analyst, 26(2), 181-193. https://doi.org/10.1007/BF03392075

4 Kommentare

Eingeordnet unter Kritik, Meinung, Philosopie, radikaler Behaviorismus

Kann sich die Gesellschaft verhalten?

Kurze Antwort: Nein, eher nicht. Bei der ausführlichen Antwort müssen wir etwas tiefer einsteigen, bei der Ontologie.

Dinge und Konstrukte

Alles ist entweder ein Ding oder ein Konstrukt (Mahner & Bunge, 2000, S. 6). Dinge sind konkrete oder materielle Gegenstände, sie sind wirklich vorhanden. Konstrukte dagegen sind nur etwas, über das wir reden und nachdenken können, sie existieren in gewisser Weise nicht wirklich, sondern nur, solange wir uns in Bezug auf sie verhalten, das heißt reden oder nachdenken (Dinge dagegen existieren unabhängig von uns). Um sich zu veranschaulichen, was ein Ding ist, kann man als unzureichende Behelfsdefinition annehmen, dass ein Ding alles ist, auf das man zeigen kann. Doch es zählen auch Objekte zu den Dingen, auf die man nicht zeigen kann, die aber gleichwohl konkret oder materiell sind, z. B. Elektronen. Aus dem Bereich der Psychologie: Ein Gehirn wäre ein Ding, auf dieses kann ich zeigen. Die Intelligenz dagegen ist ein Konstrukt. Auch menschliches Verhalten besteht in der Interaktion zwischen Dingen. Ein häufiger Fehler ist die Reifikation. Sie besteht darin, dass ein Konstrukt verdinglicht wird, das heißt wie ein Ding behandelt wird.

Konstrukte können nicht etwas bewirken, d. h. sich verhalten. Wenn wir sagen, dass irgendein Konstrukt (z. B. die Intelligenz) etwas bewirkt, dann begehen wir höchstwahrscheinlich den Fehler der Reifikation. Zudem liegt auch die Gefahr der zirkulären Argumentation nahe. Denn Konstrukte wie die Intelligenz sind oft nur bequeme Redeweisen für Dinge und die Interaktion zwischen Dingen. Wir kommen dazu, eine Person als intelligent zu bezeichnen, weil wir bestimmtes Verhalten bei ihr beobachtet haben (sie gibt kluge Antworten, sie kann Probleme lösen, insbesondere Aufgaben in einem Intelligenztest). Wir schreiben dann dieser Person Intelligenz zu. Zum Fehler der Reifikation kommt es, wenn wir diese Intelligenz dann wiederum etwas bewirken lassen und z. B. sagen eine Person könne aufgrund ihrer Intelligenz Probleme lösen. Die Zirkularität liegt auf der Hand.

Die Gesellschaft ist, so wie das Wort zumeist verwendet wird, ein Konstrukt. Ich kann nicht auf sie zeigen, denn sie ist mehr als eine Gruppe von Menschen. Sie beinhaltet auch deren Interaktionen und die von dieser Gruppe von Menschen geschaffenen Dinge. Sage ich nun, die Gesellschaft wolle etwas, die Gesellschaft tue etwas usw., begehe ich den Fehler der Reifikation.

Das strukturell-individualistische Forschungsprogramm

Das strukturell-individualistische Forschungsprogramm setzt voraus, dass kollektive Sachverhalte das Ergebnis der Handlungen individueller Akteure sind (Opp, 2005, S. 103). Das heißt, wenn die Gesellschaft sich verändert, verändern sich in Wahrheit die an der Gesellschaft teilnehmenden Individuen, sie verhalten sich z. B. anders. Das strukturell-individualistische Forschungsprogramm fordert, dass „kollektive Sachverhalte durch die Anwendung von Aussagen über Individuen zu erklären sind“ (Opp, 2005, S. 104). Kollektivistisches Denken dagegen ist in gewisser Weise magisches Denken. Es bietet, so Opp (2005), weniger tiefe Erklärungen und behindert die Lösung praktischer Probleme. Betrachte ich kollektive Sachverhalte dagegen auf der Ebene individuellen Verhaltens, erkenne ich, welche objektiv untersuchbar Prozesse tatsächlich stattfinden und ich habe einen Lösungsansatz, wie ich kollektive Probleme lösen kann. Beklage ich z. B., dass „die Gesellschaft“ nicht bereit ist, die Rechte von Minderheiten zu akzeptieren, verbaut mir ein kollektivistisches Denken den Zugang zur Lösung dieses Problems, die immer erfordert, dass Individuen ihr Verhalten verändern.

Dieser strukturell-individualistische Ansatz ist, wohlverstanden, kein plumper Reduktionismus, wie es z. B. folgende Antwort auf ein Zitat von Margret Thatcher („There’s no such thing as society“) unterstellt:

„Es gibt keine Pflanzen! Nur Pflanzenzellen!

Es gibt keine Moleküle! Nur Atome!

Es gibt keinen Gedanken! Nur elektrochemische Aktivität von Neuronen!“ (Florian Aigner auf Twitter, https://twitter.com/florianaigner/status/1467292309062574081).

Aigner attackiert hier einen Strohmann. Seine Vergleiche hinken, denn die Pflanze als Ganzes bildet auch wieder ein Ding, ebenso das Molekül. Sie sind „mehr“ als ihre Teile, aber das, was sie „mehr“ sind, spielt sich ebenfalls auf der Ebene der Dinge und der Interaktion zwischen ihren Teilen ab. Gedanken sind eine Aktivität von Dingen (in diesem Fall Menschen). Die Gesellschaft dagegen ist ein Konstrukt, wenn ich sie untersuchen will, muss ich das individuelle Verhalten von Menschen untersuchen (welches gegebenenfalls über die Individuen hinweg koordiniert ist, was aber wiederum nicht auf magische Art und Weise geschieht, sondern durch Vorgänge wie z. B. das Lernen am Modell). Des Weiteren kann ich auch die Artefakte, die für das Konstrukt „Gesellschaft“ relevant sind, untersuchen. Artefakte sind jedoch ebenfalls nur Produkte des individuellen Verhaltens von einzelnen oder mehreren Menschen gemeinsam.

So gesehen hat Margret Thatcher („There’s no such thing as society“) in gewisser Weise recht: Die Gesellschaft ist kein Ding, sie ist ein Konstrukt. Wenn wir dieses Konstrukt untersuchen wollen, müssen wir es herunter brechen auf das, was uns dazu bringt (in bequemer Redeweise) von diesem Konstrukt zu sprechen: das was Menschen tun. Nur einzelne Menschen verhalten sich.

Nachtrag: Dies ist jetzt natürlich vor dem Hintergrund eines naturalistisch-materialistischen Zugangs gesprochen, der sich allerdings in den empirischen Wissenschaften bislang als sehr erfolgreich erwiesen hat.

Mahner, M. & Bunge, M. (2000). Philosophische Grundlagen der Biologie. Berlin: Springer.

Opp, K. D. (2005). Methodologie der Sozialwissenschaften. Wiesbaden: VS Verlag für Sozialwissenschaften.

Hinterlasse einen Kommentar

Eingeordnet unter Philosopie, radikaler Behaviorismus, Skepsis