Monatsarchiv: April 2013

Verhaltenstherapie oder „Schön, dass wir mal drüber geredet haben“?

Die Verhaltensanalyse hat mit dem, was in Deutschland als (zumeist kognitive) Verhaltenstherapie praktiziert wird, zumindest einige technische Aspekte und Überzeugungen gemeinsam. Um psychisches Leiden zu heilen, muss man die Lebensumstände und das Verhalten ändern. Soweit die Theorie. Doch wird das von den deutschen Verhaltenstherapeuten auch so umgesetzt? Ist die Verhaltenstherapie in der Praxis mehr als eine „Gesprächstherapie“? Wird in der VT nur geredet oder auch mal was getan?

Psychotherapeuten sind in Deutschland mehr oder weniger dazu verdonnert, unter einem von drei „Etiketten“ zu firmieren:

  • Verhaltenstherapie
  • Psychoanalyse
  • Tiefenpsychologisch fundierte Psychotherapie

Wobei die letzten beiden oberflächlich betrachtet mehr oder weniger dasselbe sind (nämlich m. E. mehr oder minder pseudowissenschaftlich fundierte Verfahren der Erben Sigmund Freuds). Nur bei diesen drei Verfahren werden die Kosten von den gesetzlichen Krankenkassen erstattet. (Wer sich jetzt fragt, warum man beschlossen hat, zwei wissenschaftlich doch zumindest zweifelhafte Therapien auf diese Liste zu setzen: Seit wann schert Lobbyisten die Wissenschaft? Wenn es anders wäre, wären die Homöopathie, die Anthroposophische Heilkunde und die Phytotherapie nicht vom wissenschaftlichen Beleg für ihre Wirksamkeit befreit). Will man als Psychologischer Psychotherapeut bei den Krankenkassen abrechnen, muss man eine Ausbildung in einem dieser Verfahren nachweisen. Die Ausbildung in „VT“ ist von diesen Alternativen noch die erschwinglichste.

Ich habe den Verdacht, dass die wenigsten Verhaltenstherapeuten in Deutschland überhaupt Verhaltenstherapie betreiben. Was ich so höre, sitzen die Klienten auch bei den Verhaltenstherapeuten meistens nur da und reden. Es wird gequatscht, aber nicht gehandelt. Dabei zeigt die Forschung einheitlich bei den am meisten verbreiteten psychischen Erkrankungen, Depressionen und Angststörungen, dass Verhaltensaktivierung und Konfrontation jeweils die wirksamsten Techniken sind. Zum Thema Depression: Die als Standard geltende „kognitive Verhaltenstherapie“ nach Beck scheint vor allem deshalb wirksam zu sein, weil sie eine Verhaltenstherapie ist, nicht weil sie kognitiv ist. Eine um die „kognitiven“ Anteile bereinigte und entsprechend  kürzere Version der Beckschen Therapie ist genauso wirksam (Jacobson et al., 1996) und wird nun als „Aktivationstherapie“ weiterentwickelt. Mehr dazu hier.

Meine (empirisch nicht ausreichend belegte) Vermutung lautet, dass die meisten Verhaltenstherapeuten mit ihren Klienten nur darüber reden, wie sie ihre Probleme lösen könnten, statt ihnen konkret dabei zu helfen, z. B. eine Phobie zu überwinden, indem sie sich der Situation stellen. Mein Doktorvater Herbert Selg erzählte, wie er in seiner Ausbildung mit einem Klienten um der Therapie willen stundenlang Zug gefahren ist. Verlässt heute ein Verhaltenstherapeut überhaupt noch die Praxisräume?

Doch wenn sie wenigsten alle die richtigen Dinge mit ihren Klienten besprechen würden. Der Verdacht liegt nahe, dass oft nur „Verhaltenstherapie“ draufsteht, letztlich aber „Tiefenpsychologie“ drin ist. Der Verhaltenstherapeut Raimund Metzger (1997) vermutete bei seinen Kolleginnen und Kollegen eine Neigung, „wenn es ernst wird, in tiefenpsychologischem Jargon zu räsonieren“ (S. 172). Das Ganze wird dann „Eklektizismus“ genannt. Damit ist eigentlich gemeint, dass man sich nicht stur an eine Therapieform und die dazugehörige Ideologie hält, sondern für jedes Problem das jeweils beste Verfahren aussucht (Lazarus & Beutler, 1993). Doch hinter diesem Vorschlag steht ein vorwissenschaftliches Verständnis von Psychotherapie: Üblicherweise bauen Techniken (wie eine Therapie letztlich eine ist) auf einer in sich kohärenten Wissenschaft auf. Man baut ja auch keine Flugzeuge, die einerseits auf der Newtonschen Mechanik, andererseits auf Magie oder einer merkwürdigen Pseudophysik basieren. Das heißt, man sollte auch bei Psychotherapien nicht Verfahren, die aus der Anwendung einer empirischen Grundlagenwissenschaft (wie der Verhaltensanalyse) stammen, mit solchen mischen, die ein mehr oder weniger amüsantes Feuilletonwissen wie die Freudsche Psychoanalyse zur Grundlage haben. Allenfalls könnte man überlegen, was an einer scheinbar erfolgreichen pseudowissenschaftlichen Methode dran ist, um daraus etwas für eine verhaltenswissenschaftlich fundierte Therapie zu lernen, wie sich ja auch wissenschaftlich arbeitende Ärzte durchaus etwas bei ihren sich einfühlsam gebenden alternativmedizinischen Kollegen abgucken können.

Ob tatsächlich die meisten Verhaltenstherapeuten alles möglich, nur keine Verhaltenstherapie machen, lässt sich schwer belegen. Der Schweizer Psychologieprofessor Meinrad Perrez (persönliche Kommunikation) hat einmal eine Untersuchung vorgeschlagen, die das prüfen könnte. Dabei müsste man „Pseudopatienten“ zu Psychotherapeuten schicken und anschließend erfassen, was „offiziell“ und was tatsächlich in der Psychotherapie geschehen ist. Leider scheint er die Idee nicht umgesetzt zu haben.

Gewiss, auch die solcherart praktizierte Verhaltenstherapie ist wirksam. Doch heißt dies nicht, dass damit alles bestens ist.

Literatur

Jacobson, N. S.; Dobson, K. S.; Truax, P. A.; Addis, M. E.; Koerner, K.; Gollan, J. K.; Gornter, E. & Prince, S. E. (1996). A component analysis of cognitive-behavioral treatment for depression. Journal of Consulting and Clinical Psychology, 64(2), 195-304.

Lazarus, A. A. & Beutler, L. E. (1993). On technical eclecticism. Journal of Counseling & Development, 71, 381-385.

Metzger, R. (1997). Wohin ist die Verhaltenstherapie getrieben? Eine persönliche Einlassung und ein Vorschlag zur Güte. Verhaltenstherapie und psychosoziale Praxis, 29, 149-173.

Advertisements

4 Kommentare

Eingeordnet unter Kritik, Meinung, Psychologie, Skepsis, Therapie

Dann heul doch!

Weinen ist einerseits so etwas wie ein Reflex, z. B. eine Reaktion auf starken Schmerz. Andererseits wird Weinen aber auch durch die Reaktion der Umwelt aufrechterhalten.

Es gibt relativ wenig verhaltensanalytische Forschung, die sich mit der funktionalen Analyse von emotionalem Verhalten beschäftigt (Hanley et al., 2003). Zumeist geht es dabei um Wutausbrüche und Schreien. Das Weinen wurde wenn, dann nur im Zusammenhang mit anderem Verhalten untersucht. Hinzu kommt, dass emotionales Verhalten von Verhaltensanalytikern zumeist als respondent angesehen wird, d. h. als vornehmlich durch auslösende Ereignisse (z. B. Schmerz) determiniert, nicht als operant (durch Konsequenzen geformt). Dabei ist die Funktion des Weinens, die Aufmerksamkeit anderer zu erlangen, wohl bekannt. Thompson et al. (2007) konnten dies in einer Untersuchung mit zwei Kindern nachweisen, wobei sie das Problem durch die Einführung einer Art Zeichensprache lösen konnten (die Kinder lernten, ein Zeichen zu geben statt zu weinen, wenn sie Aufmerksamkeit wollten).

Lynn Bowman et al. (2013) berichten von einem 14jährigen Jungen mit einer geistigen Behinderung infolge eines Chromosomendefekts. Philip nahm ohnehin aufgrund seines aggressiven Verhaltens an einem verhaltensanalytisch fundierten Programm teil. Die Forscherinnen klärten zunächst, ob nicht doch physische Ursachen für das Weinen bestanden. Die funktionale Analyse bestand darin, dass verschiedene vorausgehende Bedingungen und Konsequenzen auf die Häufigkeit und Dauer des Weinens hin untersucht wurden. Die häufigste vorausgehende Bedingung für das Weinen war die Anwesenheit eines anderen Kindes, das weinte, die häufigsten Konsequenz des Weinens war Aufmerksamkeit in Form von Gedrückt-Werden und tröstenden Worten. Was die Forscherinnen nicht fanden, war eine Flucht-Funktion: Philip weinte nicht, um unangenehme Situationen zu vermeiden. Getestet wurde weiterhin, ob eine Ermahnung („Bitte weine nicht!“) Einfluss auf die Häufigkeit des Weinens hatte. Das war nicht der Fall. Philip weinte unter einer Bedingung am wenigsten, nämlich dann, wenn die Therapeutin mit ihm spielte und redete. Ihre Aufmerksamkeit war dabei explizit auf das gerichtet, was Philip gerade tat (z. B. sagte sie „Du sitzt gerade so schön da“, während sie ihm ein „High Five!“ gab). Wenn Philip weinte, wurde das ignoriert. Diese Methode (differential reinforcement of other behavior, DRO) führte dazu, dass Philip nach einiger Zeit fast gar nicht mehr weinte.

DRO fand auch in Bezug auf das aggressive Verhalten des Jungen Einsatz. Aufgrund des verhaltensanalytischen Trainingsprogramms, das die Eltern des Kindes mit einbezog, konnten die Psychopharmaka, die Philip zuvor erhalten hatte, abgesetzt werden.

Literatur

Bowman, Lynn G.; Hardesty, Samantha & Mendres-Smith, Amber E. (2013). A functional analysis of crying. Journal of Applied Behavior Analysis, 46(1), 317-321. PDF 229 KB

Hanley, G. P.; Iwata, B. A. & McCord, B. E. (2003). Functional analysis of problem behavior: A review. Journal of Applied Behavior Analysis, 36(2), 147-185. PDF 239 KB

Thompson, R.; Cotnoir-Bichelman, N.; McKerchar, P.; Tate, T., & Dancho, K. (2007). Enhancing early communication through infant sign training. Journal of Applied Behavior Analysis, 40(1), 15-23. PDF 168 KB

Hinterlasse einen Kommentar

Eingeordnet unter Verhaltensanalyse, Verstärkung

Verhaltensanalyse in der Neurorehabilitation

Constraint-Induced-Movement-Therapie : Die eingeschränkte Bewegungsfähigkeit nach einem Schlaganfall lässt sich durch eine verhaltensanalytisch fundierte Rehabilitationsmethode wieder herstellen.

Die Constraint-Induced-Movement-Therapie basiert auf der Annahme, dass einseitige Bewegungseinschränkungen aufgrund eines Schlaganfalls oder einer anderen Verletzung oder Erkrankung auch das Resultat eines gelernten Nicht-Gebrauchs sind. Die betroffene Person kann bspw. den gelähmten Arm nicht so gut benutzen wie den nicht-gelähmten und nutzt daher fast ausschließlich den nicht-gelähmten Arm. Sie verlernt so nach und nach, den „gelähmten“ Arm zu benutzen. Diese Einschränkung der betroffenen Extremität ist größer als aufgrund des Schadens im Zentralnervensystem zu erwarten wäre. Der Ansatz der Constraint-Induced-Movement-Therapie besteht nun darin, den Patienten dazu zu bringen, das betroffene Körperteil zu nutzen, indem das nicht-betroffene Körperteil daran gehindert wird „mitzuhelfen“, z. B. indem es fixiert wird. Dieses Verfahren erwies sich bereits im Tierversuch als ausgesprochen wirksam (vgl. auch MPI für biologische Kybernetik, 2013; insbesondere bezüglich der unredlichen Reaktion der „Tierschutz“-Organisation „PETA“).

Über 300 Studien aus mittlerweile 25 Jahren, darunter solche von hoher methodischer Qualität (randomisierte und kontrollierte Studien, sog. RCT, z. B. Wolf et al., 2006) konnten die Wirksamkeit der Constraint-Induced-Movement-Therapie eindrucksvoll belegen. Auch Jahre nach der Schädigung sind so noch Verbesserungen möglich (im Schnitt 4,4, Jahre bei Taub et al., 1994).

Edward Taub (2012), der Begründer der Constraint-Induced-Movement-Therapie, legt in einem Artikel für die Zeitschrift The Behavior Analyst die verhaltensanalytischen Ursprünge dieser Therapie dar. Neben der Bewegungseinschränkung des nicht-betroffenen Körperteils spielte von Anfang an die Verhaltensformung (Shaping) beim betroffenen Körperteil eine große Rolle. Dabei werden die Prinzipien verhaltensanalytischen Trainings beachtet, so der Fortschritt in kleinen Schritten, der ausschließliche Einsatz von positiver Verstärkung u. v. m. Mittlerweile wird die physische Bewegungseinschränkung des nicht-betroffenen Körperteils in der Regel durch einen Verhaltensvertrag zwischen Therapeut und Patient ersetzt. Der Patient wird nicht mehr durch einen Verband o. ä. daran gehindert, das nicht-betroffene Körperteil zu nutzen, sondern durch „sein Wort“. Neben den Bewegungseinschränkungen können mit dieser verhaltensanalytisch fundierten Therapie auch zahlreiche andere Ausfälle erfolgreich behandelt werden, darunter auch sprachliche (Aphasien) und Phantomschmerzen.

Taub (2012) berichtet, dass er trotz der überwältigenden Evidenz für den Erfolg der Constraint-Induced-Movement-Therapie immer wieder auf Ablehnung trifft. Ein Arzt sprach ihn z. B. im Anschluss an einen Vortrag an und äußerte, dass es nicht sein könne, dass ein verhaltensorientierte Maßnahme eine neurologische Schädigung heilen könne. Die Plastizität des Gehirns aber macht dies möglich.

Literatur

MPI für biologische Kybernetik. (2013). Constraint-Induced Movement Therapy. Internetressource, Abruf am 26.4.2013.

Taub, Edward. (2012). The behavior-analytic origins of constraint-induced movement therapy: An example of behavioral neurorehabilitation. The Behavior Analyst, 35(2), 155-178. PDF 653 KB

Taub, Edward; Cargo, Jean E.; Burgio, L.ouis D.; Groomes, Thomas E.; Cook, Edwin W. III; DeLuca, Stephanie C. & Miller, Neal E. (1994). An operant approach to rehabilitation medicine: Overcoming learnd nonuse by shaping. Journal of the Experimental Analysis of Behavior, 61(2), 281-293. PDF 1,94 MB

Wolf, Steven L.; Winstein, Carolee J.; Miller J. Philip; Taub, Edward; Uswatte, Gitendra; Morris, David; Giuliani, Carol; Light, Kathye E. & Nichols-Larsen, Deborah. (2006). Effect of constraint-induced movement therapy on upper extremity function 3-9 months after stroke: The EXCITE randomized clinical trial. Journal of the American Medical Association, 296(17), 1095-2104.

Hinterlasse einen Kommentar

Eingeordnet unter Shaping, Verhaltensanalyse

Lieber den Spatz in der Hand…

Taubeals die Taube auf dem Dach. Die Tendenz, lieber eine sichere oder sofortige Belohnung zu wählen, als auf eine höhere, aber später Belohnung zu warten, bezeichnet man als Verstärkerabwertung.

Die Verstärkerabwertung gibt es sowohl in zeitlicher Hinsicht als auch in Bezug auf die Wahrscheinlichkeit:

  • Die zeitliche Verstärkerabwertung (delay discounting) bezieht sich auf die Abnahme des subjektiven gegenwärtigen Wertes einer Belohnung als einer Funktion der Zeitspanne, bis man die Belohnung erhält.
  • Die Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit (probability discounting) ist die Abnahme des subjektiven Wertes einer Belohnung in Abhängigkeit der abnehmenden Wahrscheinlichkeit, diese Belohnung zu erhalten.

Zu beiden Formen der Verstärkerabwertung gibt es für das Tierreich eine sehr umfangreiche Literatur. In Bezug auf die Ausprägung der Verstärkerabwertung bei Menschen ist die Forschungsbasis etwas schmäler. McKerchar et al. (2012) geben einen Überblick.

Eine der ersten und folgenreichsten Untersuchungen zur zeitlichen Verstärkerabwertung stammt von Rachlin et al. (1991). Die Autoren baten 40 Studenten, zwischen zwei hypothetischen Geldbeträgen zu wählen. Jeder Teilnehmer sollte entscheiden, ob er lieber $ 1.000 in einem Monat oder einen entsprechend niedrigeren Geldbetrag sofort erhalten möchte. Die Geldbeträge waren gestaffelt von $ 990 in Zehnerschritten abwärts. Gewertet wurde, wie gering ein Geldbetrag, den der Teilnehmer bei sofortiger Zahlung akzeptieren würde, sein durfte, damit er diesen den $ 1.000 in einem Monat vorziehen würde. Dabei wurden die Geldbeträge einmal in absteigender Reihenfolge (von $ 990 abwärts) und einmal in aufsteigender Reihenfolge (von $ 1 über $ 10 in Zehnerschritten aufwärts) angeboten. Das arithmetische Mittel aus beiden Beträgen (dem, den die Versuchsperson bei aufsteigender und dem, den sie bei absteigender Präsentation wählte) wurde dann als „subjektiver gegenwärtiger Wert“ von „$ 1.000 in einem Monat“ ermittelt.

Diese Fragestellung wurde sodann noch für mehrere Zeitintervalle zwischen einem Monat und 50 Jahren wiederholt.

Dieses Untersuchungsparadigma wurde mittlerweile in vielen Varianten wiederholt, analog auch mit echten (nicht nur hypothetischen) Geldbeträgen, die die Versuchsperson erhalten konnte. Dabei fand man keine systematischen Unterschiede zwischen den Resultaten bei echten und nur hypothetischen Geldbeträgen.

Diese Experimente wurden auch zur Untersuchung der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit durchgeführt. Die Fragestellung lautete hier, ob die Versuchsperson lieber $ 1.000 mit einer Wahrscheinlichkeit von 95 % oder einen entsprechend geringeren Geldbetrag mit 100 % Sicherheit erhalten wolle. Auch hier wurden die Geldbeträge sowohl in absteigender als auch aufsteigender Reihenfolge präsentiert und auch verschiedene Wahrscheinlichkeiten zwischen 5 % und 95 % vorgegeben.

Rachlin et al. (1991) beschreiben ihre Ergebnisse mittels zweier Funktionen (Gleichungen). Die exponentielle Funktion sieht so aus:

  1. V = Ae-bX

Dabei steht V für den subjektiven Wert der Belohnung, A ist der absolute Betrag der Belohnung, e ist eine Konstante (bei Rachlin et al. 2,72) und b ist ein Parameter, der das Ausmaß der Verstärkerabwertung beschreibt. X ist entweder die Zeitspanne, bis man die Belohnung bekommt oder aber die Wahrscheinlichkeit, dass man die Belohnung nicht bekommt. Nach dieser Funktion nimmt der subjektive Wert mit jeder Vergrößerung der Zeitspanne, bis man den Betrag erhält (oder je unwahrscheinlicher die Belohnung ist), um einen festen Prozentanteil ab.

Die hyperbolische Funktion sieht so aus:

  1. V = A/(1-bx)

Nach dieser Funktion nimmt der subjektive Wert mit einem zunehmend kleineren Prozentanteil ab, je größer die Zeitspanne bis zum Erhalt der Belohnung wird.

Mazur (1987) untersuchte die zeitliche Verstärkerabwertung bei Tauben. Die Tiere hatten hier die Wahl zwischen kleineren Futtermengen, die sie sofort erhielten und größeren Futtermengen, die sie erst verzögert erhielten. Mazur (1987) fand, dass die Gleichung (2) – das hyperbolische Modell – das Verhalten der Tiere besser beschreibt als die Gleichung (1). Rachlin et al. (1991) konnten diesen Befund bei ihren Experimenten mit menschlichen Versuchspersonen bestätigen. Beim exponentiellen Modell werden die subjektiven Werte überschätzt, wenn die Zeitspannen relativ gering sind und überschätzt, wenn sie eher groß sind. Das hyperbolische Modell dagegen kann mehr als 99 % der Varianz erklären. Die Überlegenheit des hyperbolischen Modells konnte seitdem in unzähligen Studien bestätigt werden.

Zum hyperbolischen Modell gibt es mittlerweile eine Weiterentwicklung, das Hyperboloid (Myerson & Green, 1995). Dabei wird der Nenner des Bruchs der Gleichung (2) potenziert:

  1. V = A/(1-bx)s

Diese allgemeingültigere Version des hyperbolischen Modells bildet die Daten noch besser ab.

Die beiden Modelle aus den Gleichungen (1) und (2) unterscheiden sich nicht nur in Hinsicht auf ihre Übereinstimmung mit den Daten. Sie machen auch unterschiedliche Voraussagen bezüglich unterschiedlich großer Belohnungen (Mazur, 2006). Das hyperbolische Modell sagt einen Wechsel der Präferenzen voraus, wenn Zeitspanne bis zum Erhalt der Belohnung sehr groß ist. Das exponentielle Modell tut das nicht. Bei einem identischen Wert für b kommt es so zu unterschiedlichen Vorhersagen. Ein Beispiel für eine Vorhersage des hyperbolischen Modells: Der subjektive Wert eines niedrigen ($ 500) und eines hohen ($ 1.000) Geldbetrages ist relativ niedrig, wenn die Zeitspanne, bis man diesen Betrag erhalten kann, sehr groß ist: Sagen wir er liegt bei *$ 200, wenn man auf $ 500 ein Jahr lang und bei *$ 250, wenn man auf $ 1.000 zwei Jahre lang warten muss. Wenn sich die Zeitspanne verkürzt, kehrt sich das Verhältnis jedoch um. Nach fast einem Jahr, steigt der subjektive Wert der $ 500 stark an, während der subjektive Wert der $ 1.000, auf die man ja ein weiteres Jahr warten muss, weiterhin niedrig bleibt. Dieser subjektive Wert der $ 1000 ist ab einem bestimmten Zeitpunkt niedriger als der subjektive Wert der $ 500, die man bald erhalten wird. Während man zuvor den $ 1.000, die man in zwei Jahren bekommt, subjektiv einen höheren Wert beimaß als den $ 500, die man in einem Jahr bekommt, zieht man nun die $ 500, die man bald erhalten wird, den $ 1.000, die man in mehr als einem Jahr bekommt, vor. Solche Wechsel der Präferenzen kommen sowohl bei Menschen als auch bei Tieren immer wieder vor. Green et al. (1994) etwa ließen ihre Versuchspersonen zunächst zwischen $ 20 jetzt und $ 50 in einem Jahr wählen. Nur 30 % der Versuchspersonen entschieden sich für die größere, spätere Belohnung. Wenn dieselben Versuchspersonen aber zwischen $ 20 in einem Jahr und $ 50 in zwei Jahren wählen sollten, entschieden sich 80 % für die größere, spätere Belohnung.

Das Ausmaß der Verstärkerabwertung (der Wert von b in den obigen Gleichungen) variiert mit der Höhe der Belohnung. Green et al. (1997) etwa fanden, dass b kleiner wurde, je mehr sich der Wert der Belohnung von ursprünglich $ 100 dem höchsten Wert von $ 25.000 annäherte. Bei einer sehr großen Belohnung sind Menschen eher bereit, auf die größere und spätere Belohnung zu warten, als die geringere und sofortige Belohnung zu nehmen. Als Green et al. (1997) den Betrag weiter von $ 25.000 auf bis zu $ 100.000 steigerten, fanden sie jedoch keine weitere Abnahme der Verstärkerabwertung.

Bei der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit steigt dagegen der Wert von b mit der Höhe das Betrages (Green et al., 1999). Hat die Versuchsperson die Wahl zwischen relativ kleinen Geldbeträgen, die sie entweder mit Sicherheit oder nur mit einer bestimmten Wahrscheinlichkeit bekommt, zieht sie in der Regel den etwas größeren, aber nur mit einer bestimmten Wahrscheinlichkeit verfügbaren Betrag dem sicheren Geldbetrag vor. Ist der Betrag sehr groß, wählt sie lieber die sichere Variante, den kleineren Betrag.

Eine Abwertung gibt es auch bei Verlusten. So fragt man die Versuchspersonen hier, ob sie lieber $ 5 sofort oder $ 10 in einem Jahr bezahlen möchten. Bei diesen Versuchen findet man regelmäßig, dass Verluste nicht so schnell abwerten wie Gewinne. Der subjektive Wert von 10 $, die man in einem Jahr bekommt, beträgt z. B. $ 5. Dagegen beträgt der subjektive Wert von $ 10, die man in einem Jahr bezahlen muss, $ 9.

Die meisten Forscher gehen davon aus, dass das individuelle Ausmaß der Verstärkerabwertung relativ stabil ist. Bickel et al. (2011) dagegen berichten von einem Training zur Verbesserung des Arbeitsgedächtnisses, das die Verstärkerabwertung bei ihren Versuchspersonen (Drogenabhängigen) um 50 % reduziert hat.

Verstärkerabwertung und Drogenmissbrauch

Madden et al. (1997) verglichen das Ausmaß der Verstärkerabwertung bei 38 opiatabhängigen Versuchspersonen mit dem von 18 Versuchspersonen einer Kontrollgruppe. Die Drogenabhängigen zeigten bei den hypothetischen Geldbeträgen eine deutlicher ausgeprägte Verstärkerabwertung als die Kontrollpersonen. Der Wert der Konstante b aus den obigen Gleichungen lag bei ihnen bei 0,22, im Vergleich zu 0,03 bei den nicht-drogenabhängigen Versuchspersonen der Kontrollgruppe.

Madden et al. (1997) untersuchten auch das Ausmaß der Verstärkerabwertung bei dieser Population, wenn es um hypothetische Heroindosen ging. Die Versuchspersonen hatten die (hypothetische) Wahl zwischen einer kleineren Dosis, die sie sofort erhalten könnten und einer größeren Dosis, die sie zu einem späteren Zeitpunkt bekommen könnten. Die Verstärkerabwertung war hier gigantisch groß, der Parameter b lag bei erstaunlichen 4,17.

Die Ergebnisse von Madden et al. (1997) konnten mittlerweile vielfach repliziert werden (Bickel & Marsch, 2001; Reynolds, 2006; Yi, Mitchell & Bickel, 2010).

Etwas anders sehen die Verhältnisse bei der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit aus. In den weniger Studien zu diesem Thema mit Drogenabhängigen unterschieden diese sich kaum von den anderen Versuchspersonen. Es liegt nahe, dass diese Personen, die eine kleine, sofortige Belohnung einer späteren, größeren Belohnung vorziehen, umgekehrt eher die sichere, kleinere Belohnung der unsicheren, größeren Belohnung vorziehen. Was ihren „Stoff“ angeht, zeigen Drogenabhängige eine stark ausgeprägte Risikovermeidung. Sie wollen lieber die kleiner Menge an Drogen sicher bekommen, als das Risiko einzugehen, eine größere Menge an Drogen evtl. nicht zu bekommen.

Das individuelle Ausmaß der Verstärkerabwertung lässt sich nutzen, um das Risiko für eine Drogenkarriere vorauszusagen. Audrain-McGovern et al. (2009) konnten in einer Langzeitstudie mit Jugendlichen zeigen, dass eine stärker ausgeprägte Tendenz zur zeitlichen Verstärkerabwertung in jungen Jahren das Risiko, später zum Raucher zu werden, vorhersagen kann. Eine geringere Verstärkerabwertung zu Beginn des Entzugs dagegen erhöht die Chancen, dass ehemalige Kokainkonsumenten clean bleiben (Washio et al., 2011).

Literatur

Audrain-McGovern, J.; Rodriguez, D.; Epstein, L. H.; Cuevas, J.; Rodgers, K. & Wileyto, E. P. (2009). Does delay discounting play an etiological role in smoking or is it a consequence of smoking? Drug and Alcohol Dependence, 103, 99-106.

Bickel, W. K. & Marsch, L. A. (2001). Toward a behavioral economic understanding of drug dependence: Delay discounting processes. Addiction, 96, 73-86.

Bickel, W. K.; Yi, R.; Landes, R. D.; Hill, P. F. & Baxter, C. (2011). Remember the future: Working memory training decreases delay discounting among stimulant addicts. Biological Psychiatry, 69, 260-265.

Green, L.; Myerson, J. & McFadden, E. (1997). Rate of temporal discounting decreases with amount of reward. Memory & Cognition, 25, 715-723.

Green, L.; Myerson, J. & Ostaszewski, P. (1999). Amount of reward has opposite effects on the discounting of delayed and probabilistic outcomes. Journal of Experimental Psychology: Learning, Memory, and Cognition, 25, 418-427.

Madden, G. J.; Petry, N. M.; Badger, G. J. & Bickel, W. K. (1997). Impulsive and self-control choices in opiod-dependend patients and non-drug-using control participants: Drug and monetary rewards. Experimental and Clinical Psychopharmacology, 5, 256-262.

Mazur, J. E. (1987). An adjusting procedure for studying delayed reinforcement. In M. L. Commons; J. E. Mazur; J. A. Nevin & H. Rachlin (Eds). Quantitative analysis of behavior: Vol. 5. The effect of delay and intervening envents of reinforcement value (pp. 55-73). Hillsdale, NJ: Erlbaum.

Mazur, J. E. (2006). Mathematical models and the experimental analysis of behavior. Journal of the Experimental Analysis of Behavior, 85, 275-291.

McKerchar, T. L. & Renda, C. R.. (2012). Delay and probability discounting in humans: An overview. The Psychological Record, 62(4), 817-834.

Myerson, J. & Green, L. (1995). Discounting of delayed rewards: Models of individual choice. Journal of the Experimental Analysis of Behavior, 64, 263-276.

Rachlin, H.; Raineri, A. & Cross, D. (1991). Subjective probability and delay. Journal of the Experimental Analysis of Behavior, 55, 223-244.

Reynolds, B. (2006). A review of delay-discounting research with humans: Relations to drug use and gambling. Behavioural Pharmacology, 17, 651-667.

Yi, R.; Mitchell, S. H. & Bickel, W. K. (2010). Delay discounting and substance abuse-dependence. In G. J. Madden & W. K. Bickel (Eds.), Impulsivity: The behavioral and neurological science of discounting (pp. 191-211). Washington, D. C.: American Psychological Association.

2 Kommentare

Eingeordnet unter Verhaltensanalyse, Verstärkung

Es liegt mir auf der Zunge

Bisweilen sucht man nach Worten. Man hat das Gefühl, das Wort, das man gerade sagen will, liegt einem auf der Zunge, aber es fällt einem einfach nicht ein. Dies liegt nicht nur am Sprecher, sondern auch an den Wörtern selbst: Vor allem seltene und wenig konkrete Wörter sind davon betroffen.

Den „Tip-Of-The-Tongue-Effekt“ hat wohl jeder schon einmal erlebt: Man sucht nach einem Wort und es will einem einfach nicht einfallen. Oft sind das die Namen von Personen, manchmal aber auch Begriffe. Wissenschaftler haben untersucht, welche Wörter es denn vor allem sind, die einem nicht einfallen. Gebräuchliche Wörter, also solche, die man oft verwendet, fallen einem leichter ein als seltene Wörter (Harley & Brown, 1998). Zwei Wissenschaftlerinnen der Universität von Albany im US-Bundesstaat New York (Gianico-Relyea & Altarriba, 2012) fanden nun heraus, dass auch abstrakte Wörter eher vom Tip-Of-The-Tongue-Effekt betroffen sind als konkrete. Konkrete Wörter wie Verben und Substantive, die Gegenstände bezeichnen (wie „Stuhl“ oder „Apfel“), fallen einem leichter ein, als abstrakte Hauptwörter (wie „Demokratie“ oder „Quantität“) und Adjektive.

Wer dem Tip-Of-The-Tongue-Effect entgehen will, spricht also am besten nur über einfache und konkrete Sachverhalte, wobei er möglichst nur den eingeschränkten Standardwortschatz verwendet.

Literatur

Gianico-Relyea, Jennifer L. & Altarriba, Jeanett. (2012). Word concreteness as a moderator of the tip-of-the-tongue effect. The Psychological Record, 62(4), 763-776.

Harley, T. A. & Brown, H. E. (1998). What causes a tip-of-the-tongue state? Evidence for lexical neighbourhood effects in speech production. British Journal of Psychology, 89, 151-174.

Hinterlasse einen Kommentar

Eingeordnet unter Psychologie, Sprache, Verhaltensanalyse

Überschätzung der Schlaflosigkeit behandeln

Schlafender HundViele Menschen, die an Schlafstörungen leiden, überschätzen das Ausmaß ihrer Schlaflosigkeit. Wenn man ihnen Feedback gibt und korrekte Einschätzungen mit Geld belohnt, lernen sie, objektiver zu schätzen. Die verbesserte subjektive Wahrnehmung des Problems ist ein wichtiger Ansatz zu seiner Lösung.

Menschen, die schlecht schlafen, überschätzen regelmäßig die Zeit, die sie wach liegen. Das hat auch damit zu tun, dass Selbstberichte im Allgemeinen wenig akkurat sind. Wenn man z. B. am Abend einschätzen soll, was man tagsüber gegessen hat, vergisst man oft etliche Nahrungsmittel, ebenso, wenn man die Menge der am Tag getrunkenen Wassers einschätzen soll. Noch schwieriger wird es, wenn man eindeutig „private“ Vorgänge (verdecktes Verhalten) berichten soll, z. B. wie oft am Tag man an ein bestimmtes Thema gedacht hat. Solche Angaben sind oft im Rahmen einer Psychotherapie bei Depressionen hilfreich. Hier soll der Patient z. B. angeben, wie oft am Tag er über unangenehme Themen nachgedacht hat.

Statt auf Selbstberichte setzen Verhaltensanalytiker daher auf die genauere Methode der Selbstbeobachtung. Beim Selbstbericht soll die Person rückblickend einschätzen, wie oft sie etwas getan hat. Bei der Selbstbeobachtung protokolliert sie ihr Verhalten (z. B. die getrunkene Flüssigkeitsmenge) unmittelbar nachdem es aufgetreten ist (unmittelbar nach dem Trinken). Die funktioniert auch beim „privaten“ oder „verdeckten“ Verhalten, das nur die Person selbst an sich beobachten kann. Zum Beispiel soll der depressive Patient jedes Mal, wenn er einen unangenehmen Gedanken hat, eine Counter (eine Gerät, das ein Zählwerk um eine Ziffer höher stellt, wenn man einen kleinen Hebel drückt, z. B. ein sogenannter Schusszähler) betätigen. Die mittels der Selbstbeobachtung gewonnen Daten sind viel reliabler (zuverlässiger, genauer) als die Daten aus Selbstberichten.

Aber auch die Zuverlässigkeit von Selbstberichten lässt sich im Lauf der Zeit verbessern, wenn die Person regelmäßig Feedback zur Genauigkeit ihrer Selbstberichte bekommt. St. Peter et al. (2012) nutzen diese Methode zur Verbesserung der Genauigkeit von Schätzungen der Schlafdauer. Ihre vier Probanden waren Studenten, die nicht an einer Schlafstörung litten. Sie trugen während der ganzen Nacht einen Aktigraphen, einen Bewegungsmesser, am Handgelenk. Zu Beginn der Nachtruhe mussten sie den Bewegungsmesser aktivieren. Spätestens 15 Minuten nach dem Aufstehen sollten sie zudem einen Fragebogen ausfüllen, auf dem sie die Dauer der schlaflosen Phasen angeben sollten, sowie einen Reaktionstest absolvieren.

Vier bis elf Nächte lang wurde zunächst die Basisrate erhoben. Die Selbstberichte (die Angaben der Teilnehmer über die Dauer ihrer schlaflosen Phasen) waren im Schnitt zu 49 % korrekt. Dieser Wert wurde so errechnet: Die kleiner Zahl (in der Regel die Zahl der schlaflosen Minuten, wie sie der Bewegungsmesser anzeigte) wurde durch die größere Zahl (in der Regel die Zahl der schlaflosen Minuten nach den Angaben der Teilnehmer) geteilt und mal 100 genommen.

Danach bekamen die Versuchspersonen nach jeder Nacht im Anschluss an ihren Selbstbericht Feedback darüber, wie viele Minuten sie tatsächlich (nach den Angaben des Bewegungsmessers) wach gelegen waren. Je genauer ihre Angaben waren, desto größer war der Geldbetrag, den sie zur Belohnung erhielten. War der Selbstbericht zu 100 % genau, erhielt die Versuchsperson $ 5,00, betrug die Genauigkeit 70 %, bekam die Versuchsperson $ 3,50 usw.

In den folgenden neun bis 16 Nächten verbesserte sich die Genauigkeit der Selbstberichte auf im Schnitt 78 %. Das Feedback und die materielle Verstärkung durch das Geld hatten also zu einer besseren Schätzung der Schlafzeiten geführt.

Zusätzlich wollten die Forscher wissen, ob sich die Schlafqualität unter dem Einfluss der Maßnahme ebenfalls veränderte. Hierzu erhoben sie mittels der Daten des Bewegungsmessers die Schlafeffizienz. Diese betrug 100 %, wenn der Proband vom Einschalten des Bewegungsmessers am Abend bis zum Aufstehen am Morgen durchgehend schlief, entsprechend niedriger, wenn er nur einen bestimmten Prozentanteil der Nacht hindurch schlief. Während der Basisratenerhebung betrug dieser Anteil 88,7 % bis 94,5 %, anschließend, als die Versuchspersonen Feedback und Geld bekamen, betrug die Schlafeffizienz 86,8 % bis 94,3 %. Die Maßnahme hatte also keinen Einfluss auf die Schlafeffizienz.

Durch Feedback und positive Verstärkung kann man also die Genauigkeit der Selbstberichte über die Schlafdauer verbessern. Man mag sich jetzt fragen, was für einen Nutzen das hat. Schließlich kann man die objektive Schlafdauer ja ohnehin recht einfach über Bewegungsmelder (oder noch genauer, aber ungleich aufwändiger, über ein EEG) erfassen. Die Autoren merken an, dass es bei manchen Verhaltensweisen sehr wichtig ist, wie sie die betroffenen Personen subjektiv einschätzen. Wer unter Schlaflosigkeit leidet, überschätzt oft das Ausmaß seiner Schlaflosigkeit. Wenn man den Betroffenen hilft, die Dauer ihrer schlaflosen Phasen richtiger – d. h. vor allem kürzer – einzuschätzen, hat man schon viel zur Lösung des Problems getan.

Literatur

St. Peter, Claire C.; Montgomery-Downs, Hawley E. & Massullo, Joel P. (2012). Improving accuracy of sleep self-reports through correspondence training. The Psychological Record, 62(4), 623-630.

Hinterlasse einen Kommentar

Eingeordnet unter Psychologie, Verhaltensanalyse, Verstärkung

Wie aus Lob ein Verstärker wird

Nicht alle Menschen reagieren auf Lob so, wie man es sich erhofft. Manchmal liegt das daran, dass der Gelobte nie gelernt hat, dass Lob etwas Gutes ist. Denn Lob zählt nicht zu den „primären Verstärkern“: Es wird erst im Lauf des Lebens zum Verstärker. Die meisten Menschen – aber nicht alle – lernen das ohne besondere Instruktion. Was aber kann man tun, wenn Lob noch kein Verstärker ist?

Ein Verstärker ist ein Reiz (ein Ereignis in der Umwelt des Individuums), der (kontingent, d. h. regelhaft) auf ein Verhalten folgt und dazu führt, dass dieses Verhalten in Zukunft häufiger auftritt. Prinzipiell gibt es zwei Arten von Verstärkern: Primäre und konditionierte (oder sekundäre). Primäre Verstärker wirken „einfach so“, von Natur aus. Bei Menschen sind z. B. Essen, Trinken, eine angemessene Temperatur oder die Möglichkeit zu sexueller Aktivität primäre Verstärker. Konditionierte Verstärker müssen dagegen erst zu solchen gemacht werden. Hundetrainier kennen den sogenannten Clicker (ein Kinderspielzeug, das ein knackendes Geräusch erzeugt, ein „Knackfrosch“). Das Geräusch des Clickers wird erst dadurch zum Verstärker für das Verhalten des Hundes, indem der Trainer das Clicken immer wieder mit der Gabe von Futter (oder „Leckerli“) paart. Ebenso ist Lob beim Menschen ein konditionierter Verstärker. Lob ist nicht von Natur aus, angeborenermaßen ein Verstärker für das Verhalten eines Menschen.

Es gibt im Wesentlichen zwei Methoden, um einen ursprünglich neutralen Reiz zu einem konditionierten Verstärker zu machen:

  1. Die Stimulus-Stimulus-Methode: Der ursprünglich neutrale Reiz wird unabhängig von einem Verhalten mehrfach gemeinsam mit einem primären Verstärker gegeben (z. B. ein Click mit einem Futterhappen oder aber Lob mit einer Süßigkeit).
  2. Die Verhalten-Stimulus-Methode: Wenn die Person ein erwünschtes Verhalten zeigt, werden zuerst der neutrale Reiz (z. B. ein Click oder Lob) und dann der primäre oder bereits etablierte Verstärker (z. B. ein Futterhappen oder eine Süßigkeit) gegeben.

In beiden Fällen muss anschließend getestet werden, ob der ursprünglich neutrale Reiz nun zum konditionierten Verstärker geworden ist. Dies geschieht, indem man den neuen Reiz (z. B. den Click oder das Lob) alleine nach einem erwünschten Verhalten gibt und dann beobachtet, ob die Rate des Verhaltens nun ebenfalls ansteigt.

Der zugrundeliegende Mechanismus soll dem klassischen Konditionieren gleichen. Auch beim klassischen Konditionieren wird unabhängig vom Verhalten ein (unkonditionierter) Reiz mit einem anderen, neutralen Reiz gepaart, bis dann auch der ursprünglich neutrale (nun konditionierte) Reiz die ursprünglich unkonditionierte, nun aber konditionierte Reaktion auslösen kann.

Nach einer anderen Interpretation ist der konditionierte Verstärker ein diskriminativer Reiz. Diskriminative Reize signalisieren dem Individuum, dass ein bestimmtes Verhalten verstärkt werden wird. In der Skinner-Box etwa drückt die Ratte einen Hebel (Verhalten 1) und hört daraufhin ein Klappern (neutraler Reiz). Das Klappern ist das Geräusch, welches der Futterspender macht, wenn ein Futterpellet in die Futterschale fällt. Geht die Ratte nun vom Hebel zum Futterspender (Verhalten 2), findet sie dort ein Futterpellet (den primären Verstärker). Das Klappern ist für die Ratte ein Hinweis, dass das Verhalten „Zum Futterspender gehen“ den primäre Verstärker „Futterpellet“ zur Folge haben wird. Hört sie kein Klappern, findet sich auch kein Futterpellet im Spender. Das Klappern ist somit ein Hinweisreiz, ein diskriminativer Stimulus. Das Klappern ist aber auch ein konditionierter Verstärker. Man kann dies daran erkennen, dass die Ratte auch dann zum Futterspender gehen wird, wenn sie das Klappern hört und kein Futter im Spender vorfindet. Der Reiz „Klappern“ funktioniert aber nur so lange als (konditionierter) Verstärker, wie es wenigstens ab und an mit dem „Backup-Verstärker“ (primären Verstärker), den Futterpellets, gepaart wird. Ansonsten setzt Extinktion ein, das heißt, die Ratte geht noch eine Weile zum Spender, wenn sie das Klappern hört, stellt dieses Verhalten aber ein, wenn sie konsistent kein Futter im Spender vorfindet.

Dozier et al. (2012) testeten, welche der beiden oben genannten Methoden sich dazu eignen, Lob als Verstärker zu konditionieren. Lob ist kein primärer Verstärker, das heißt, Lob muss erst im Lauf der Lerngeschichte eines Individuums als konditionierter Verstärker gelernt werden und Lob wird unwirksam, wenn es nie zusammen mit anderen, unkonditionierten Verstärkern gemeinsam auftritt. Das Lob des Chefs ist unwirksam, wenn es nie zusammen mit anderen Formen der Wertschätzung auftritt (z. B. einer Gehalterhöhung oder der Zuweisung einer interessanten Aufgabe).

Die meisten Menschen lernen das im Lauf ihres Lebens ganz automatisch, ohne dass ihre Eltern sich dessen bewusst wären. Diese loben das Kind, wenn es etwas richtig gemacht hat und tätscheln es dabei (vielleicht ein primärer Verstärker) oder sie geben ihm etwas zu essen (auf jeden Fall ein primärer Verstärker). Nach und nach genügt es, das Kind zu loben, um sein Verhalten zu verstärken, zusätzliches Tätscheln oder Essen sind dann nicht mehr erforderlich.

Einige Menschen lernen jedoch nicht im Laufe ihres Lebens, das Lob eine Verhaltenskonsequenz ist, die mit primärer positiver Verstärkung in Verbindung steht. Im Alltag ist die Verknüpfung von Lob und primären Verstärkern eher lose – nicht jedes Lob wird von eine Tätscheln oder Essen begleitet. Manche Menschen lernen nur schwer, wenn die Beziehungen (Korrelationen) zwischen Reizen oder Verhalten und Reizen nicht perfekt (deterministisch: immer wenn A, dann auch B), sondern probabilistisch (meistens, wenn A, dann auch B) sind.

Die Versuchspersonen, mit denen Dozier et al. (2012) arbeiteten, reagierten nicht auf Lob. Es handelte sich um zwölf erwachsene Personen mit geistiger Behinderung. Bei vier dieser Versuchspersonen prüften Dozier et al. (2012), ob die Stimulus-Stimulus-Methode geeignet war, Lob als Verstärker zu etablieren. Bei jeder Versuchsperson wurde zuvor getestet, welche (primären) Verstärker gut funktionierten. Dabei handelte es sich durchweg um Nahrungsmittel. Als Lob wurden zehn Äußerungen gewählt, die die Versuchspersonen zuvor höchstwahrscheinlich noch nicht gehört hatten (Bsp.: „keep on rockin‘ in the free wordl“ – offenbar eine gebräuchliche Form des Lobes im US-amerikanischen Sprachraum…). Die Verhaltensweisen, die später verstärkt werden sollten, waren solche, die die Versuchspersonen ohnehin gelegentlich zeigten, z. B. das Heben des Armes, das Berühren des Knies (bei jeder Versuchsperson eine andere Verhaltensweise). Zunächst wurde die Basisrate des Verhaltens erfasst. Bei bis zu zehn Terminen traten diese Verhaltensweisen im Schnitt insgesamt weniger als einmal auf. Anschließend wurde getestet, ob Lob allein das Verhalten verstärken konnte. Dies war nicht der Fall. Daraufhin wurde mehrfach das Lob mit dem primären Verstärker zusammen gegeben, ohne dass die Versuchsperson das Verhalten gezeigt hätte. Zuletzt wurde wieder geprüft, ob Lob allein das Verhalten nun verstärken konnte. Dies war nicht der Fall. Die Stimulus-Stimulus-Methode eignete sich nicht, um bei diesen Personen Lob als Verstärker zu konditionieren.

Mit den anderen acht Versuchspersonen wurde die Wirksamkeit der Verhalten-Stimulus-Methode geprüft. Wieder zeigten die Versuchspersonen das Verhalten nur selten, egal ob sie gelobt wurden oder nicht. Anschließend wurden sie nach jedem Auftreten der Verhaltensweise gelobt und sie bekamen das Nahrungsmittel, das sich zuvor als wirksamer Verstärker erwiesen hatte. Die Rate des Verhaltens stieg nun deutlich an. Zuletzt wurden die acht Versuchspersonen wieder nur gelobt, wenn sie das Verhalten zeigten. Bei vier dieser acht Versuchspersonen hatte die Verhalten-Stimulus-Methode nicht funktioniert. Wie schon die Versuchspersonen bei der Stimulus-Stimulus-Methode reagierten sie auch jetzt nicht auf das Lob. Bei den anderen vier Versuchspersonen aber hatte die Verhalten-Stimulus-Methode gewirkt. Das Lob wirkte nun als Verstärker, zwar nicht so gut wie die Kombination von Essen und Lob, aber das Lob konnte das Verhalten immerhin eine Weile aufrechterhalten. Ohne Lob hingegen zeigten auch diese vier Versuchspersonen das erwünschte Verhalten nicht. Auch bei anderen Verhaltensweisen wirkten die Lob-Sprüche nun als Verstärker.

Somit kann Lob als Verstärker im Prinzip konditioniert werden, wenn man nach einem Verhalten zunächst das Lob zusammen mit einem primären Verstärker paart.

Literatur

Dozier, Claudia L.; Iwata, Brian A.; Thomason-Sassi, Jessica; Worsdell, April S. & Wilson, David M. (2012). A comparison of two pairing procedures to establish praise as a reinforcer. Journal of Applied Behavior Analysis, 45(4), 721-735. PDF 657 KB

Hinterlasse einen Kommentar

Eingeordnet unter Verhaltensanalyse, Verstärkung