Schlagwort-Archive: Philosophie

Mentalismus – von den Gefahren, die drohen, wenn man Unterschiede zwischen Menschen auf „innere Faktoren“ zurückführt

Jay Moore (2003) hat vor fast 20 Jahren schon einmal zusammengefasst, warum es problematisch ist, Unterschiede zwischen Menschen auf (echte oder vermeintliche) innere Faktoren zurückzuführen – aus wissenschaftlicher und aus ethischer Sicht.

Verhaltensanalytiker zeichnen sich durch ihr hauptsächliches Interesse an den Kontingenzen, die das Verhalten kontrollieren, durch ihre Abgrenzung vom Mentalismus und ihre Überzeugung, dass sich die soziale Umwelt planen und verändern lässt, aus. Der Mentalismus dagegen vertritt die Ansicht, dass eine angemessene Erklärung von Verhalten den Bezug auf vermeintliche innere mentale Phänomene enthalten muss. Dieser vertritt entweder einen formalen und expliziten Dualismus (es gibt eine geistige und eine physische Welt) oder aber einen epistemiologischen Dualismus, der besagt, dass es eine geistige Sphäre gibt, die zwar physisch begründet ist (als Gehirnaktivität), die aber nicht untersuchbar sondern nur erlebbar ist (vgl. Psychologie als Wissenschaft vom Verhalten und Erleben des Menschen). Diesem epistemiologischen Dualismus huldigen nicht nur Philosophen und die gesamte traditionelle Psychologie, sondern auch der sogenannte Neo-Behaviorismus, der die vermittelnde Qualität innerer Prozesse anerkennt. In der akademischen Psychologie erwirbt man sich z. Zt. am besten seine Sporen, indem man neue Mentalismen erfindet und popularisiert. Wir haben aus der Medizin eine Tendenz übernommen, unser wissenschaftliches Heil in inneren Vorgängen zu suchen und wir erfinden notfalls welche, wenn sie nicht direkt untersuchbar sind. Zudem werden mentalistische Erklärungen – als ein verbales Verhalten – durch die soziale Umwelt aufrechterhalten: Der Laie kennt das „Erleben und Verhalten“ vor allem aus der Innenansicht und er ist geneigt, in Ersterem die Ursache für Letzteres zu sehen.

Ein Auswuchs des Mentalismus ist die Attributionstheorie. Attributionstheoretiker selbst haben den sogenannten fundamentalen Attributionsfehler entdeckt: Dass die meisten Menschen unangemessenerweise das Verhalten anderer Menschen auf dispositionelle Faktoren attribuieren. Der „fundamentale Attributionsfehler“ an sich ist bereits ein Fehler, denn er setzt voraus, dass Dispositionen überhaupt Ursachen von Verhalten sein können. Ebenso ein Fehler an sich ist das sogenannte Konsistenzparadox: Der Umstand, dass wir das Verhalten anderer Menschen über verschiedene Situationen hinweg als konsistenter einschätzen als dies eigentlich der Fall ist. Für den Verhaltensanalytiker ist das Verhalten immer eine Funktion der gegenwärtigen und der früheren „Situation“ – das Paradox existiert für ihn somit nicht. Wer nun solche dispositionellen Faktoren als Ursachen von Verhalten propagiert, der leistet – gewollt oder ungewollt – der Diskriminierung von Minderheiten Vorschub. Denn wenn das Verhalten einer Person, die einer bestimmten Gruppe von Personen (z. B. von gleicher Hautfarbe oder Nationalität) angehört, durch eine Disposition bestimmt ist, dann ist es zumindest fraglich, ob dieses Verhalten überhaupt geändert werden kann. Warum sollte man es also überhaupt versuchen? Aus Sicht der Verhaltensanalyse dagegen mögen Verhaltensrepertoires gelegentlich zwar gut organisiert und strukturiert sein, aber sie sind nicht durch „innere Ursachen“ determiniert.

Das Konzept der „Intelligenz“ ist ein weiterer bedenklicher Aspekt des Mentalismus. Intelligenz wird für gewöhnlich als eine mentale Eigenschaft eines Menschen betrachtet. Die stereotype mentalistische Betrachtungsweise der Intelligenz hat in der Geschichte bereits viel Leid über die Menschen gebracht (erinnert sei hier an die Ausgrenzung von osteuropäischen und anderen Einwanderern in den USA aufgrund der Ergebnisse von Intelligenttests). Ebenso bedenklich ist die mentalistische Interpretation der Intelligenzunterschiede zwischen Männern und Frauen. Die kognitive Neurowissenschaft unterfüttert diese Interpretation mit den Unterschieden in der Gehirnstruktur. Eine Implikation des Mentalismus ist die Folgerung, dass bei geringer Intelligenz keine Förderung von Nöten ist, denn sie ist ein inhärentes Merkmal der Person: Wenn Frauen bestimmte Aufgaben nicht so gut bewältigen wie Männer, weil ihre Neuronen irgendwie anders sind als die von Männern, warum sollten sie dann nicht am Besten „barfuss und schwanger in der Küche stehen“, wie Moore es umschreibt?

Aus Sicht der Verhaltensanalyse ist „Intelligenz“ nur eine weitere mentalistische Erklärungskrücke. Menschen unterscheiden sich: Sie haben unterschiedliche genetische Ausstattungen, die bedingen, dass sie in unterschiedlicher Weise für die Einflüsse ihrer Umwelt empfänglich sind. Zweifelsohne ist auch das Verhaltensrepertoire eines Menschen aus einer gehobenen sozialen Schicht entwickelter als das eines Menschen aus einer niedrigern sozialen Schicht.  Aus der mentalistischen Sicht folgt hier aber der pädagogische Pessimismus. Wir werden mit Programmen und Interventionen wenig Erfolg haben, solange wir an dem Bezug auf traditionelle mentalistische Erklärungen von Intelligenz festhalten.

Sicher werden bestimmte Aktivitäten des Menschen durch bestimmte anatomische Strukturen ermöglicht. Wir sehen z. B. an den Opfern von Schlaganfällen, dass sie bestimmte Aufgaben nicht mehr oder nur noch schlecht ausführen können. Alle diese Belege aber sind nur eine vage Grundlage für die mentalistischen Metaphern vom Speichern und Abrufen von Informationen. Bei weitem ist kein Bezug herstellbar zwischen den Modellen zur Informationsverarbeitung der kognitiven Psychologie und den Synapsen, Neuronen und Gehirnregionen. Das Verhalten sollte die Suchrichtung für den Physiologen vorgeben. Die traditionelle Psychologie ist verantwortlich für eine gigantische Verschwendung an Forscherarbeit, indem sie Physiologen nach den neuronalen Entsprechungen von mentalistischen Konstrukten suchen ließ.

Schon John Stuart Mill beklagte, wie vulgär es sei, die Diversität von Verhalten und Charakteren auf natürliche Unterschiede zurückzuführen. Der Verführung des Mentalismus erlagen jedoch auch die ersten Behavioristen – indem sie die Naturwissenschaft vom Verhalten zu einer „kognitiven“ Psychologie zu transformieren versuchten (bestes Beispiel: Bandura).

Moore, J. (2003). Behavior analysis, mentalism and the path to social justice. The Behavior Analyst, 26(2), 181-193. https://doi.org/10.1007/BF03392075

4 Kommentare

Eingeordnet unter Kritik, Meinung, Philosopie, radikaler Behaviorismus

Essentialismus und Selektionismus

Der Biologe Ernst Mayr (1976, 1982, 1988) sieht im essentialistischen Denken die Tendenz, Kategorien in der Natur als Ausdruck universeller, überdauernder Eigenschaften zu sehen, die dieser Kategorie zu eigen sind. Vor Darwin waren die Ansichten der Biologen über die Lebewesen essentialistisch. Arten wurden z. B. als eine Klasse von Lebewesen angesehen, die eine bestimmte essentielle Eigenschaft gemeinsam haben.

Der Essentialismus geht davon aus, dass die Phänomene der Ausdruck einer idealen Vorlage sind, einer Art Essenz, die selbst unerklärt bleibt. Biologische Arten sind der Ausdruck oder das Abbild des Schöpfungsvorganges, aus dem sie entstanden sind.

Demgegenüber setzte Darwin das Prinzip der Selektion als eine nicht-teleologische Erklärung für die Diversität des Lebendigen. Wahrscheinlich haben alle Füchse einen gemeinsamen Ahnen. Aber alle Füchse unterliegen auch ähnlichen Selektionsmechanismen, selektiven Kontingenzen. Diese Kontingenzen bewirken, dass alle Füchse sich ähneln. Sie sind aber nicht gleich und sie sind auch nicht unperfekte Abbilder eines idealen Fuchses. Die Varianz zwischen Füchsen ist ebenso ein Resultat der Selektionsmechanismen. Würde eine (schwer vorstellbare) Mutation alle Variabilität zwischen den Exemplaren einer Art ausmerzen, dann wäre diese Art bei der geringsten Änderung der Umweltbedingungen zum Aussterben verurteilt.

Das einzig Universelle, das es auf dieser Welt gibt, sind die Namen, die wir den Dingen geben.

Der Selektionismus betrachtet die Variabilität zwischen den Phänomenen als das Grundlegende, wohingegen der Essentialismus die Variabilität als irrelevant und irreführend betrachtet.

Die Ähnlichkeit von natürlicher Selektion und den Lernprozessen ist bereits mehreren Autoren aufgefallen (z. B. Baldwin, 1895, 1909/1980; Campbell, 1956; Pringle, 1951; Skinner, 1953; Staddon, 1983; Thorndike, 1898). Wie bei der Evolution haben variable Elemente unterschiedliche Konsequenzen. Manche Elemente mit bestimmten Konsequenzen werden gestärkt, andere nicht. Ordnung entsteht, ohne dass es eine planende Instanz, einen Schöpfer oder einer Absicht bedarf. So wie sich nach und nach Arten entwickeln, entwickeln sich nach und nach andere Verhaltensweisen, indem sich nach und nach die Verstärkungskontingenzen verändern, bis ein vollkommen neues Verhalten entstanden ist (man nennt diesen Vorgang „Shaping“, Verhaltensformung). Sowohl die Evolution als auch die Verstärkung wirken, indem sie immer wieder Elemente aus einem variablen Substrat selektieren, was letztlich zu einer Ordnung in den Kategorien der Phänomene führt.

Wir begehen einen großen Fehler, wenn wir die Variabilität unseres Untersuchungsgegenstandes – des Verhaltens – als störend oder irrelevant ansehen. Der gruppenstatistische Ansatz in der Psychologie tut aber gerade dies. Varianz wird hier als störend empfunden. Man verwendet möglichst große Gruppen von Versuchspersonen, weil man hofft, dass so die individuellen Unterschiede verschwinden und die Essenz – der Effekt, die psychologische Gesetzmäßigkeit – zum Vorschein kommt.

Derjenige Psychologe, der den Gedanken des Selektionismus am konsequentesten zu Ende gedacht hat, ist zweifelsohne B. F. Skinner. Er interpretiert jedes Verhalten – vom Hebeldrücken bis zur Wahrnehmung und dem sprachlichen Verhalten – in den Begriffen der Selektion. Demzufolge sind auch seine Untersuchungseinheiten nicht a priori gegeben, sie sind das Ergebnis der Empirie. Wenn unsere Untersuchungseinheiten und Kategorien die Natur wiedergeben sollen, müssen sie empirisch definiert werden. Dabei empfiehlt Skinner nicht, dass wir unsere unabhängigen Variablen so lange manipulieren, bei Ordnung erscheint. Er empfiehlt, dass wir unsere Definitionen so lange verändern, bis Ordnung erscheint. Er wendet sich gegen die Art, wie gelegentlich „Reize“ und „Reaktionen“ ad hoc definiert werden. Wenn wir alltägliche Vorgänge beschreiben, mag das unausweichlich sein. Im Labor aber ist es ein Fehler. Was genau die Reaktion und was der Reiz ist, bei einer Ratte, die einen Hebel drückt und danach eine Futterkugel erhält, müssen wir durch das Experiment herausfinden, wie wissen es (grundsätzlich) nicht von vorn herein. Skinner lehnte auch Watsons (1930) Definition einer Verhaltensweise (response) ab, die besagt, dass alles, was ein Tier oder Mensch tue, eine Verhaltensweise sei, also nicht nur Orientierung des Körpers zum Licht hin, sondern auch das Bauen eines Wolkenkratzers, das Zeichnen eines Plan usw. Die letztgenannten Aktivitäten sind nicht so geordnet und einförmig wie das Hebeldrücken.

In der Psychologie werden die Untersuchungseinheiten a priori definiert oder als selbstverständlich vorausgesetzt. Verhaltensanalytiker setzen eine Klasse oder Kategorie nicht voraus, sie entdecken sie. Essentialisten suchen mit ihrer Definition den „wahren Kern“ zu erfassen. Selektionisten versuchen, ihre Definitionen empirisch zu finden. Wie sie etwas definieren, hängt vom Forschungsinteresse ab, der Menge der Objekte, die sich in gewisser Weise gleich verhalten.

Das Ziel der Wissenschaft ist es, Ordnung bei unseren Untersuchungsgegenständen zu entdecken. Die Ordnung liegt aber oft im Auge des Betrachters.

Die wenigsten kognitiven Psychologen definieren ihre Konzepte empirisch. “In its flight from the restrictions of behaviorism, cognitive science has abandoned this important methodological constraint“ (Palmer & Donahoe, 1992, S. 1348). Essentialistische Analysen bringen einige Probleme mit sich:

Die Versuchung des zirkulären Denkens

Verhaltensphänomene sind zumindest zum Teil eine Funktion der Eigenschaften des Organismus. Wenn man eine hypothetische Eigenschaft des Organismus annimmt, sollte man sie nicht später als Erklärung des beobachteten Phänomens wieder verwerten. Die wenigsten Wissenschaftler argumentieren bewusst zirkulär. Zirkuläres Denken wird leicht kritisiert, aber es ist schwer zu vermeiden, wenn man essentialistisch vorgeht. William James (1907) bemerkte, dass niemand ernsthaft den Reichtum eine Menschen als Ursache dafür ansieht, warum dieser Mensch Geld habe. Doch häufiger führen wir die Kränklichkeit eines Menschen auf seine schlechte Gesundheit zurück, beeindruckende muskuläre Leistungen auf große Körperkraft und gutes Problemlösen auf große Intelligenz. In der kognitiven Psychologie wird der Spracherwerb auf die Sprachkompetenz zurückgeführt und Fehler bei der Erinnerung auf eine eingeschränkte Gedächtniskapazität. Zirkuläre Argumentation tritt auf, wenn ein Konzept (wie etwa Intelligenz) gut eingebürgert und etabliert ist. Dann wird es reifiziert.

Das Abkürzen der Untersuchung

Wer essentialistisch definiert, meint damit oft das Problem gelöst zu haben, ohne es untersucht zu haben. Die weit verbreitete Praxis, die genetische Ausstattung als Ursache für ein Verhalten anzunehmen (wie es u. a. die „Evolutionspsychologie“ tut), ist Essentialismus im Gewand des Selektionismus. Ein Verhalten wird auf eine angenommene Eigenschaft des Organismus zurückgeführt und sodann dazu benutzt, das Verhalten zu erklären. Das Kurzzeitgedächtnis ist beispielsweise eine Metapher, keine Struktur. Anzunehmen, dass es angeboren ist, ist ein Glaubensbekenntnis, keine ernsthafte Annahme.

Nicht-sparsame Erklärungen

Essentialistische Konzepte verlangen nach einzelnen Erklärungen (so wie aus der Sicht des Kreationismus jede Art auf einen eigenen Schöpfungsakt zurückgeht). Wenn man z. B. in Experimenten feststellt, dass nicht alle Daten mit der Annahme eines Kurz- und eines Langzeitgedächtnisses vereinbar sind, dann muss man eine Art Gedächtnis dazwischen postulieren. Dasselbe gilt für die verschiedenen Arten des Langzeitgedächtnisses, sie vermehren sich mit jedem Experiment. Essentialistisches Denken führt uns in nutzlose Debatten darüber, ob ein bestimmtes Phänomen wirklich der Beleg für ein bestimmtes Konzept ist oder nicht. War der Archaeopteryx ein Vogel oder ein Reptil? Ist das Resultat eines bestimmten Experiments ein Beleg für das Langezeit- oder das Kurzzeitgedächtnis, für das episodische oder das semantische Gedächtnis?

Die Kognitionswissenschaft hat sich nach Palmer und Donahoe (1992) dem Essentialismus verschrieben. Chomskys Analyse der Sprache ist ein gutes Beispiel dafür. Er geht davon aus, dass es universelle Eigenschaften der Sprache gibt, die ein Teil unserer genetischen Ausstattung sind. Bei der Ausgestaltung dieses Grundgedankens erkennen wir alle Merkmale des Essentialismus. Wenn Chomsky sich mit realer Sprache auseinandersetzt, muss er sich bald in eine idealisierte Welt zurückziehen. Die Unterscheidung von Kompetenz und Performanz hilft ihm dabei. Er hält die Grammatik für etwas, das real in den Köpfen existiert. “I have argued that the grammar represented in the mind is a real object, indeed that a person’s language should be defined in terms of this grammar“ (Chomsky, 1980, S. 120). Die linguistische Intuition der Muttersprachler wird nur dann herangezogen, wenn sie seine Annahmen stützt. Die fundamentale Variabilität des sprachlichen Verhaltens wird herausgenommen, um das formale Gebäude seiner Theorie aufrecht zu erhalten. Der Satz wird als Einheit untersucht, nicht, weil er eine Einheit des Verhaltens wäre, sondern weil er eine formale Analyse erlaubt.

Chomsky hält es für selbstverständlich, dass Menschen – im Wortsinn – die Grammatik benutzen. Ein Kind kann einen Ball fangen. Die Bewegungsgesetze beschreiben eine vorhersagbare Bewegung des Balles. Doch wir nehmen nicht an, dass das Kind diese Bewegungsgesetze erschlossen hat.

Um die Herkunft der universellen Ordnung der Sprache zu begründen, unterstellt Chomsky eine genetische Grundlage. Doch viele Regeln der Grammatik sind völlig willkürlich. Chomsky stützt seine Annahme einer genetischen Grundlage mit dem Argument, dass der Input, den eine Kind erhält, zu gering sei, als dass es die Regeln der Grammatik daraus erschließen könne (poverty of the stimulus). Doch wenn diese Regeln im Genom angelegt sein sollen, müssen auch sie irgendwie dort hinein gelangt sein. Das gleiche Argument, das er verwendet, um zu begründen, warum man ein bestimmtes sprachliches Verhalten nicht erlernt haben kann, gilt auch für das Genom. Was nicht gelernt worden sein kann, kann auch nicht ins Genom geschrieben worden sein. Denn der einzige Weg, wie etwas ins Genom gelangen kann, ist der der Selektion auf Ebene der Art. Doch willkürliche Regeln haben keine Konsequenzen, die es plausibel machen, warum sie weitervererbt werden sollten. Chomsky unterstellt, dass dies aufgrund der langen Zeit, die der biologischen Evolution zur Verfügung steht, möglich sei. Doch er glaubt wohl selbst nicht an dieses Argument, denn 1969 führt er aus, dass es evtl. auch noch nicht-entdeckte, physikalische Gesetze gäbe, die es ermöglichen, dass eine grammatische Regel ohne adaptiven Nutzen ins Genom geschrieben werde. „It is, in fact, perfectly possible that the innate structure of mind is determined by principles of organization, by physical conditions, even by physical laws that are now quite unknown, and that such notions as „random mutation“ and „natural selection“ are as much a cover for ignorance as the somewhat analogous notions of “trial and error”, “conditioning”, “reinforcement”, and “association”” (Chomsky, 1969, S. 262).

Es gibt viele Beispiele für Verhalten, das offenkundig genetisch determiniert ist, das Balzverhalten, Warnrufe etc. Doch bei all diesen Verhaltensweisen ist klar, wie sie ausgelöst werden und welchen Nutzen sie haben. Von Chomskys Grammatik-Generator kann man das nicht behaupten. Auch Steven Pinkers semantisches „Bootstrapping“ ist kein Ausweg, denn der Mechanismus, wie es funktionieren soll, müsste erst beschrieben werden. Es gibt keinen Zweifel, dass Kinder ihre Muttersprache durch die Interaktionen erlernen, die das Bootstrapping beinhaltet. Doch Kinder lernen nicht die essentialistischen Konzepte der Universalgrammatik.

Auch die Gedächtnispsychologie hat sich dem Essentialismus verschrieben. Erinnerungen werden als „Dinge“ betrachtet. Zwar nimmt kaum ein Wissenschaftler die „Speicher“-Metapher wörtlich, doch wird das Gedächtnis als ein Ding betrachtet, dass sich in bestimmten Verhaltensweisen manifestiert. Wir rufen keine synaptischen Verknüpfungen auf, wenn wir Erinnerungen „aufrufen“. Wir kommen ja auch nicht auf den Gedanken, dass der Patellarsehnenreflex im Rückenmark „gespeichert“ ist. Aus selektionistischer Sicht ist das Abrufen einer Erinnerung ein Beispiel für aktuelles Verhalten (wobei einige Teile dieses Verhaltens verdeckt, d. h. von außen nicht beobachtbar stattfinden). Die vorausgehenden Bedingungen einer Erinnerung sind sicher komplexer als die eines Augenzwinkerns, aber dieser Unterschied in der Komplexität ist kein prinzipieller Unterschied. Wenn wir gefragt werden, wo wir letzten Donnerstag gewesen sind, ziehen wir nicht eine vorgefertigte Antwort aus einer Schublade in unserem Kopf, sondern wir beginnen mit einem Verhalten, das uns dabei hilft, zu rekonstruieren. Unsere eigenen Antworten dienen dabei als vorausgehende Bedingungen unseres weiteren, sprachlichen Verhaltens. Palmer und Donahoe (1992) geben ein Beispiel: „Letzten Donnerstag…? Heute ist Montag. Am Mittwoch gehe ich immer zum Skat, ich war am Mittwoch lange weg und muss wohl am Donnerstag lange im Bett geblieben sein…“ usw.

Literatur

Baldwin, J. M. (1895). Mental development in the child and race. New York: Macmillan.

Baldwin, J. M. (1980). Darwin and the humanities. New York: AMS Press.

Campbell, D. T. (1956). Adaptive behavior from random response. Behavioral Science, 1, 105-110.

Chomsky, N. (1969). Some empirical assumptions in modern philosophy of language. In S. Morgenbesser, P. Supes & M. White (Eds.), Philosophy, science, and methods: Essays in honor of Ernest Nagel (pp. 260-285). New York: St. Martin’s Press.

Chomsky, N. (1980). Rules and representations. New York: Columbia University Press.

James, W. (1907). Pragmatism. New York: Longmans Green.

Mayr, E. (1976). Evolution and the diversity of life. Cambridge, MA: Belknap Press.

Mayr, E. (1982). The growth of biological thought. Cambridge, MA: Harvard University Press.

Mayr, E. (1988). Toward a new philosophy of biology. Observations of an evolutionist. Cambridge, MA: Belknap Press.

Palmer, David C. & Donahoe, John W. (1992). Essentialism and selectionism in cognitive science and behavior analysis. American Psychologist, 47(11), 1344-1358. DOI: 10.1037/0003-066X.47.11.1344

Pringle, J. W. S. (1951). On the parallel between learning and evolution. Behaviour, 3, 175-215.

Staddon, J. E. R. (1983). Adaptive behavior and learning. Cambridge, England: Cambridge University Press.

Thorndike, E. L. (1898). Animal intelligence. An experimental study of the associative process in animals. The Psychological Review Monograph Supplements, 2(4, Whole No. 8).

8 Kommentare

Eingeordnet unter Kritik, Philosopie, Psychologie, radikaler Behaviorismus, Sprache, Verhaltensanalyse

Theory and Philosophy Conference

Anfang November 2012 besuchte ich die Theory and Philosophy ConferenceInn and Spa at Loretto, Santa Fe der Association for Behavior Analysis International in Santa Fe. Abgesehen davon, dass Santa Fe sehr nett ist, konnte ich auch einiges in Hinsicht auf das Konferenzthema für mich mitnehmen. Besonders haften geblieben sind mir die Beiträge von William Baum und Howard Rachlin. Beide vertreten den sogenannten molaren Ansatz der Verhaltenswissenschaft (mehr dazu später).

Beide betonen auch die Nähe der Verhaltensanalyse zur Biologie. Die Ähnlichkeit von operantem Konditionieren und der biologischen Evolution wird schon bei Skinner (1984) diskutiert (vgl. die Ausführungen zum „Selektionismus“ auf diesem Blog).

Baum betrachtet Verhalten explizit als phänotypische Plastizität. Ähnlich wie sich ein Chamäleon seiner Umgebung äußerlich anpasst, dient Verhalten dazu, sich der Umwelt anzupassen. Er betont den fließenden Übergang zwischen biologischer Evolution und der ontogenetischen Anpassung des Verhaltens. Oft kann man nicht letztgültig sagen, ob ein bestimmtes Merkmal „ererbt“ oder „erworben“ wurde, man wird aber feststellen können, dass es adaptiv ist.

Er bezieht sich auf Richard Dawkins, der Organismen als Behältnisse für die DNS betrachtet, die deren Überleben und Reproduktionserfolg dienen. Baum definiert: Organismen gibt es, damit sie sich verhalten können, damit sie die Umwelt, in der sie sich befinden, verändern / modifizieren können. Wir haben einen Körper, damit wir uns verhalten können.

Bei Rachlin sind mir vor allem seine Bemerkungen zur Wahrnehmung haften geblieben. Verhaltensanalytiker betrachten Wahrnehmung als Verhalten. Wir sehen nur dann etwas bewusst, wenn wir uns gegenüber diesem Wahrgenommenen verhalten können. Die Gefangenen in Platos Höhlengleichnis würden nichts wahrnehmen, wenn sie von Geburt an in dieser Höhle waren.

Literatur

Skinner, B.F. (1984). Selection by consequences. The Behavioral and Brain Sciences, 7(4), 477-510.

Hinterlasse einen Kommentar

Eingeordnet unter Philosopie, radikaler Behaviorismus, Verhaltensanalyse