Schlagwort-Archive: Verstärker

Tagteach beim Tanzen

Ähnlich wie beim „Clicker-Training“ nutzt man auch beim „Tagteach“ einen konditionierten Verstärker. Der „Tag“ (Markierer) ist in der Regel ein kurzes Geräusch (auch ein Clicker wird gerne verwendet), mit dem man bestimmte, erwünschte Verhaltensweisen markiert. Die unmittelbare zeitliche Nähe von Verhalten und Markierung erleichtert das Lernen. Bei menschlichen Versuchspersonen muss man in der Regel den Clicker nicht „aufladen“ (mittels eines primären Verstärkers zum konditionierten Verstärker machen). Bei Versuchspersonen, die bereits sprechen können, genügt es zumeist, wenn man der Person, die mittels Tagteach etwas lernen soll, vorher sagt, dass der „Click“ anzeigt, dass das gerade gezeigte Verhalten „richtig“ war. Diese Instruktion wirkt dabei als etablierende Operation (establishing operation), durch die das Klickgeräusch (regelgeleitet) zum Verstärker wird.

Quinn et al. (2015) berichten vom Einsatz des Tagteaching bei vier Mädchen im Alter von sechs bis neun Jahren, die in einem Studio Jazztanz lernten. Zur Didaktik des Tanzens gibt es recht wenig empirische Untersuchungen (Nemecek & Chatfield, 2007). Die meisten Tanzlehrer setzen unbewusst vor allem aversive Techniken (Bestrafung und negative Verstärkung) ein: Wenn die Schülerin alles richtig macht, wird sie nicht geschimpft. Der zeitliche Bezug (die Kontiguität) zwischen dem Verhalten (der jeweiligen richtigen oder falschen Tanzbewegung) ist dabei meist sehr schwach, die Rückmeldung erfolgt unsystematisch und zeitverzögert. All das erschwert das Lernen.

Tagteach ist schon bei anderen Sportarten, bei denen es auf gute Körperbeherrschung ankommt, erfolgreich eingesetzt worden, z. B. beim Golfspielen (Fogel et al., 2010) und beim Schießen (Mononen, 2007).

Quinn et al. (2015) nutzen das verhaltensorientierte Fertigkeitstraining (Behavioral Skills Training, BST), um den Tanzlehrerinnen das Tagteaching zu vermitteln. Anschließend erklärten die Tanzlehrerinnen die Schülerinnen, was es mit dem „Tagger“ (dem Clicker) auf sich hat: Immer, wenn die Schülerin eine Bewegung, die ihr zuvor erklärt wurde, richtig ausführte, wird sie unmittelbar dieses Geräusch hören. Den Schülerinnen wurde der Einsatz des Taggers demonstriert und sie durften ihn auch selbst verwenden, um das Verhalten der Lehrerin zu formen. Anschließend wurde der Tagger im normalen Unterricht eingesetzt. Dabei wurde das Tagging im Schnitt nur vier Minuten lang pro Bewegungsart und pro Woche eingesetzt, in der restlichen Zeit fand normaler Unterricht statt.

Die Lehrerin erklärte zunächst immer, was in der folgenden Übung der „Tag-Punkt“ sein solle (z. B. „Der Tag-Punkt ist: Zehen zum Knie“). Bei der jüngsten Schülerin erwies sich der Tagger alleine als nicht ausreichend, um eine stabile Verhaltensänderung zu erreichen. Das Tagging wurde daher durch ein Token-System ergänzt. Für jedes „Click“ erhielt die Sechsjährige einen Punkt, sie konnte ihre Punkte am Ende der Stunde gegen ein kleines Geschenk (einen Aufkleber oder eine Süßigkeit) eintauschen.

Die Forscher untersuchten die Wirkung des Tagteaching bei drei verschiedenen Bewegungsarten, die die Kinder lernen sollten (Drehen, Springen, Schwingen). Das Tagteaching wurde bei jeder dieser Verhaltensweisen zeitversetzt eingeführt, in der Form eines Multiplen-Basisratendesigns. Die Schülerinnen verbesserten ihre Leistungen in den einzelnen Verhaltensweisen mit Beginn des Tagteaching jeweils deutlich und dauerhaft. Der Anteil korrekt ausgeführter Bewegungen verbesserte sich, je nach Schülerin und geforderter Bewegungsart um 20 % bis 50 % innerhalb weniger Termine.

Die Schülerinnen und die Lehrerinnen wurden zudem auch nach ihrer Einschätzung bezüglich des Tagteaching befragt (soziale Validität des Verfahrens). Die Kinder äußerten übereinstimmend, dass das Tagteaching ihnen dabei half, sich zu konzentrieren und dass es besser als der normale Unterricht sei. Die Lehrerinnen verglichen Videoaufnahmen von vor und nach dem Tagteaching und bewerteten das Verfahren ebenfalls als sehr hilfreich.

Literatur

Fogel, Victoria A.; Weil, Timothy M. & Burris, Heather. (2010). Evaluating the efficacy of TAGteach as a training strategy for teaching a golf swing. Journal of Behavioral Health and Medicine, 1(1), 25-41.

Mononen, Kaisu. (2007). The effects of augmented feedback on motor skill learning in shooting. Studies in Sport, Physical Education, and Health, 122, 1-63. DOI: 10.1080/0264041031000101944

Nemecek, Sarah M. & Chatfield, Steven J. (2007). Teaching and technique in dance medicine and science. A descriptive study with implications for dance educators. Journal of Dance Education, 7(4), 109-117. doi: 10.1080/15290824.2007.10387348

Quinn, Mallory J.; Miltenberger, Raymond G. & Fogel, Victoria A. (2015). Using tagteach to improve the proficiency of dance movements. Journal of Applied Behavior Analysis, 48(1), 11-24. DOI: 10.1002/jaba.191

Advertisements

Hinterlasse einen Kommentar

Eingeordnet unter Pädagogik, Shaping, Verhaltensanalyse, Verstärkung

Politiker verhalten sich nach Plan

Der Verhaltensanalytiker Joseph V. Brady hatte bereits 1958 darauf hingewiesen, dass das Arbeitsverhalten des US-Kongresses an Verhalten unter einem festen Interfallplan erinnere, bei dem das Ende der Sitzungsperiode und der dann mögliche Kontakt zum Wahlvolk den Verstärker darstelle. Ganz besonders dürfte sich das alle zwei Jahre zeigen, wenn Wahlen anstehen. Nicht nur Zyniker sehen das hauptsächliche Anliegen der Abgeordneten im Streben nach Wiederwahl, so dass diese Annahme nicht ganz abwegig erscheint. Schon eine Arbeit von Weisberg und Waldrop (1972) zeigte, dass die Menge an Gesetzen, die (in den Jahren 1947-1968) vom Kongress verabschiedet wurden, gegen Ende der Sitzungsperiode immer rasant anstieg, um mit Beginn der neuen Sitzungen erst einmal zu ruhen. In einer Grafik (mit den kumulierten Häufigkeiten der verabschiedeten Gesetze) dargestellt, zeigte sich dasselbe treppenförmige Muster, wie wir es von Laborexperimenten kennen, bei denen das Versuchstier auf einem fixen Intervallplan für sein Verhalten verstärkt wird.

Kongress der Vereinigten Staaten

Einer Skinner-Box nicht unähnlich: Der Kongress der Vereinigten Staaten

Critchfield und andere (2003) wiesen nach, dass dies auch für den Zeitrum von 1948 bis 2000 gilt. Sie prüften dabei auch einige Voraussagen, die aus der Hypothese, dass das Arbeitsverhalten der Volksvertreter (in verabschiedeten Gesetzen gemessen) einem festen Intervallplan folge, abgeleitet werden können. Unter anderem kann man aus dieser Hypothese ableiten, dass die Rate des Verhaltens desto schneller wieder ansteigt, je größer der Verstärker ist. Auf die Gesetzgebung übertragen heißt das, dass die Rate der verabschiedeten Gesetze um so schneller ansteigt, je länger die vorausgehende Sitzungspause war (was voraussetzt, dass längere Sitzungspausen größere Verstärker sind, da sie den Abgeordneten mehr Zeit in ihrem Wahlkreis und damit mehr Kontakt zum Wahlvolk ermöglichen). Diese und die drei anderen Voraussagen konnten in einer statistischen Analyse der Daten bestätigt werden.Critchfield und seine Kollegen prüften auch einige Alternativhypothesen, so z. B. ob es nicht einfach die Arbeitslast während der Sitzungsperiode sei, die zur hektischen Aktivität gegen Ende der Sitzungsperiode führe oder ob die Gesetze einfach nur so lange Vorbereitung benötigten, um letztendlich gegen Ende der Sitzungsperiode verabschiedet werden zu können. Für diese und einige andere Alternativerklärungen für das treppenförmige Muster der Anzahl der verabschiedeten Gesetze ergaben sich keine Belege. Zum Beispiel fanden Critchfield et al., dass die Menge an Vorbereitung für die Gesetze (gemessen über die Aktivität von Ausschüssen und Unterausschüssen) sogar in negativer Beziehung zum Ausmaß der „Torschlussaktivitäten“ standen, d. h., je mehr während der Sitzungsperiode in den Ausschüssen gearbeitet wurde, desto geringer war die Anzahl der kurz vor Schluss verabschiedeten Gesetze. Es scheint, dass die Volksvertreter ihre Zeit zu Beginn der Sitzungsperioden eher mit anderen als Gesetzgebungsaktivitäten (und deren Vorbereitung) verbrachten, z. B. mit innerparteilicher Profilierung (wofür Critchfield et al. einige Anhaltspunkte fanden).Alles in allem scheint die Annahme, das Verhalten der Abgeordneten unterläge einen fixen Intervallplan mit der Sitzungspause (und den Wahlen) als Verstärker, der Realität recht nahe zu kommen. Allerdings erreicht das Muster, das die Gesetzgebungsaktivitäten zeigen, nicht die Regelmäßigkeit, die wir aus den Laborexperimenten kennen. Wie immer gibt es in der Realität viele verschiedene Kontingenzen, die auf das Verhalten der Abgeordneten einwirken. Auch für einen Volksvertreter gibt es andere Verstärker als die Wiederwahl und andere Verhaltensweisen als die Verabschiedung von Gesetzen.Literatur:

Critchfield, Thomas S.; Haley, Rebecca; Sabo, Benjamin; Colbert, Jorie & Macropoulis, Georgette. (2003). A half century of scalloping in the work habits of the United States Congress. Journal of Applied Behavior Analysis, 36(4), 465-486. DOI: 10.1901/jaba.2003.36-465 PDF 178 KB

Weisberg, Paul & Waldrop, Phillip B. (1972). Fixed-interval work habits of Congress. Journal of Applied Behavior Analysis, 5(1), 93-97. DOI: 10.1901/jaba.1972.5-93 PDF 516 KB

Ein Kommentar

Eingeordnet unter Verhaltensanalyse, Verstärkung

„Tiefendruck“ ist ein Verstärker

Von Pseudotherapien kann man tatsächlich etwas lernen. Von der Sensorischen Integrationstherapie etwa, dass das Eingepackt-werden-in-Matten für das Verhalten einiger Kinder ein Verstärker ist. Gut zu wissen. Hoffentlich wissen das auch die Anwender dieser Methode.

Einige Ergotherapeuten verwenden im Rahmen der sogenannten sensorischen Integrationstherapie verschiedene Maßnahmen, bei denen das behandeltet Kind einem physischen Druck ausgesetzt wird. Das Kind wird z. B. zwischen Matten oder Kissen gepackt oder vom Therapeuten gedrückt, auch von einer „Knuddel-Maschine“ (Edelson et al., 1999) wird berichtet. Dieser Behandlung liegt die Annahme zugrunde, dass der „Tiefendruck“ eine langanhaltende beruhigende Wirkung habe.

McGinnis et al. (2013) stellen sich die Frage, ob diese Maßnahmen als Verstärker wirken. Die Therapeuten verwenden diesen Tiefendruck vor allem, um Kinder, die problematisches Verhalten zeigen, zu beruhigen. Wenn Tiefendruck ein Verstärker ist, steht zu befürchten, dass sich das Problemverhalten verschlimmert, wenn sein Einsatz kontingent auf das Problemverhalten erfolgt. Mit anderen Worten: Das Kind mag zwar durch den Tiefendruck vorübergehend ruhig werden, langfristig aber wird das Problemverhalten häufiger auftreten, denn es wird ja durch diese Maßnahme verstärkt.

McGinnis et al. (2013) testeten diese Maßnahmen auf ihre Verstärkerwirkung hin. Drei Kinder mit einer schweren Form des Autismus nahmen an den Versuch teil. Die Kinder sollten lernen, entweder auf ein Kreissymbol oder ein Dreieck zu deuten. Deuteten sie auf das richtige Symbol, wurden sie zwischen die zwei Hälften einer Gymnastikmatte gepackt (der Kopf und der Hals des Kindes waren natürlich frei). Die Anforderung an das Kind wechselte mit den Phasen der Untersuchung. Zunächst sollten die Kinder auf das Dreieck deuten. Das Verhalten der Kinder passte sich schnell an, sie deuteten nach wenigen Versuchen kaum mehr auf den Kreis, sondern fast ausschließlich auf das Dreieck. In der nächsten Phase sollten die Kinder den Kreis berühren. Auch hier passte sich das Verhalten der Kinder schnell an. Auch bei weiteren Wechseln änderte sich das Verhalten in Abhängigkeit von der geltenden Kontingenz (der Regel, welches Verhalten – das Deuten auf eines der beiden Symbole – dazu führte, dass das Kind anschließend für kurze Zeit zwischen die Matte gepackt wurde).

Dieser Versuch legt nahe, dass die übliche Praxis des Einpackens (die Ausübung von Tiefendruck) für das Verhalten der so behandelten Kinder ein Verstärker ist. Die Autoren empfehlen, diese Maßnahmen, wenn überhaupt, nur gezielt und im Wissen um ihre mögliche Verstärkereigenschaft einzusetzen, z. B. um erwünschtes Verhalten zu formen.

Literatur

Edelson, S. M.; Edelson, M. G.; Kerr, D. C. R. & Grandin, T. (1999). Behavioral and physiological effects of deep pressure on children with autism: A pilot study evaluating the efficacy of Grandin’s hug machine. American Journal of Occupational Therapy, 53, 145-152.

McGinnis, Amy A.; Blakely, Elbert Q; Hervey, Ada C.; Hodges, Ansley C. & Rickards, Joyce B. (2013). The behavioral effects of a procedure used by pediatric occupational therapists. Behavioral Interventions, 28(1), 48-57. PDF 257 KB

3 Kommentare

Eingeordnet unter Autismus, Skepsis, Therapie, Verhaltensanalyse, Verstärkung

Bärendressur mittels kontingenter Verstärkung mit Futter

Wenn Bären dressiert wurden, kam dabei in der Regel massive Gewalt zur Anwendung. Diesem Herrn ist es gelungen, seinem Bären mittels kontingenter Gabe von essbaren Verstärkern etliche, ganz erstaunliche Kunstsstücke beizubringen, anscheinend ohne den Einsatz aversiver Reize (ob das alles überhaupt sein muss, will ich nicht beurteilen).

Hinterlasse einen Kommentar

06/07/2013 · 08:47

Lieber den Spatz in der Hand…

Taubeals die Taube auf dem Dach. Die Tendenz, lieber eine sichere oder sofortige Belohnung zu wählen, als auf eine höhere, aber später Belohnung zu warten, bezeichnet man als Verstärkerabwertung.

Die Verstärkerabwertung gibt es sowohl in zeitlicher Hinsicht als auch in Bezug auf die Wahrscheinlichkeit:

  • Die zeitliche Verstärkerabwertung (delay discounting) bezieht sich auf die Abnahme des subjektiven gegenwärtigen Wertes einer Belohnung als einer Funktion der Zeitspanne, bis man die Belohnung erhält.
  • Die Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit (probability discounting) ist die Abnahme des subjektiven Wertes einer Belohnung in Abhängigkeit der abnehmenden Wahrscheinlichkeit, diese Belohnung zu erhalten.

Zu beiden Formen der Verstärkerabwertung gibt es für das Tierreich eine sehr umfangreiche Literatur. In Bezug auf die Ausprägung der Verstärkerabwertung bei Menschen ist die Forschungsbasis etwas schmäler. McKerchar et al. (2012) geben einen Überblick.

Eine der ersten und folgenreichsten Untersuchungen zur zeitlichen Verstärkerabwertung stammt von Rachlin et al. (1991). Die Autoren baten 40 Studenten, zwischen zwei hypothetischen Geldbeträgen zu wählen. Jeder Teilnehmer sollte entscheiden, ob er lieber $ 1.000 in einem Monat oder einen entsprechend niedrigeren Geldbetrag sofort erhalten möchte. Die Geldbeträge waren gestaffelt von $ 990 in Zehnerschritten abwärts. Gewertet wurde, wie gering ein Geldbetrag, den der Teilnehmer bei sofortiger Zahlung akzeptieren würde, sein durfte, damit er diesen den $ 1.000 in einem Monat vorziehen würde. Dabei wurden die Geldbeträge einmal in absteigender Reihenfolge (von $ 990 abwärts) und einmal in aufsteigender Reihenfolge (von $ 1 über $ 10 in Zehnerschritten aufwärts) angeboten. Das arithmetische Mittel aus beiden Beträgen (dem, den die Versuchsperson bei aufsteigender und dem, den sie bei absteigender Präsentation wählte) wurde dann als „subjektiver gegenwärtiger Wert“ von „$ 1.000 in einem Monat“ ermittelt.

Diese Fragestellung wurde sodann noch für mehrere Zeitintervalle zwischen einem Monat und 50 Jahren wiederholt.

Dieses Untersuchungsparadigma wurde mittlerweile in vielen Varianten wiederholt, analog auch mit echten (nicht nur hypothetischen) Geldbeträgen, die die Versuchsperson erhalten konnte. Dabei fand man keine systematischen Unterschiede zwischen den Resultaten bei echten und nur hypothetischen Geldbeträgen.

Diese Experimente wurden auch zur Untersuchung der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit durchgeführt. Die Fragestellung lautete hier, ob die Versuchsperson lieber $ 1.000 mit einer Wahrscheinlichkeit von 95 % oder einen entsprechend geringeren Geldbetrag mit 100 % Sicherheit erhalten wolle. Auch hier wurden die Geldbeträge sowohl in absteigender als auch aufsteigender Reihenfolge präsentiert und auch verschiedene Wahrscheinlichkeiten zwischen 5 % und 95 % vorgegeben.

Rachlin et al. (1991) beschreiben ihre Ergebnisse mittels zweier Funktionen (Gleichungen). Die exponentielle Funktion sieht so aus:

  1. V = Ae-bX

Dabei steht V für den subjektiven Wert der Belohnung, A ist der absolute Betrag der Belohnung, e ist eine Konstante (bei Rachlin et al. 2,72) und b ist ein Parameter, der das Ausmaß der Verstärkerabwertung beschreibt. X ist entweder die Zeitspanne, bis man die Belohnung bekommt oder aber die Wahrscheinlichkeit, dass man die Belohnung nicht bekommt. Nach dieser Funktion nimmt der subjektive Wert mit jeder Vergrößerung der Zeitspanne, bis man den Betrag erhält (oder je unwahrscheinlicher die Belohnung ist), um einen festen Prozentanteil ab.

Die hyperbolische Funktion sieht so aus:

  1. V = A/(1-bx)

Nach dieser Funktion nimmt der subjektive Wert mit einem zunehmend kleineren Prozentanteil ab, je größer die Zeitspanne bis zum Erhalt der Belohnung wird.

Mazur (1987) untersuchte die zeitliche Verstärkerabwertung bei Tauben. Die Tiere hatten hier die Wahl zwischen kleineren Futtermengen, die sie sofort erhielten und größeren Futtermengen, die sie erst verzögert erhielten. Mazur (1987) fand, dass die Gleichung (2) – das hyperbolische Modell – das Verhalten der Tiere besser beschreibt als die Gleichung (1). Rachlin et al. (1991) konnten diesen Befund bei ihren Experimenten mit menschlichen Versuchspersonen bestätigen. Beim exponentiellen Modell werden die subjektiven Werte überschätzt, wenn die Zeitspannen relativ gering sind und überschätzt, wenn sie eher groß sind. Das hyperbolische Modell dagegen kann mehr als 99 % der Varianz erklären. Die Überlegenheit des hyperbolischen Modells konnte seitdem in unzähligen Studien bestätigt werden.

Zum hyperbolischen Modell gibt es mittlerweile eine Weiterentwicklung, das Hyperboloid (Myerson & Green, 1995). Dabei wird der Nenner des Bruchs der Gleichung (2) potenziert:

  1. V = A/(1-bx)s

Diese allgemeingültigere Version des hyperbolischen Modells bildet die Daten noch besser ab.

Die beiden Modelle aus den Gleichungen (1) und (2) unterscheiden sich nicht nur in Hinsicht auf ihre Übereinstimmung mit den Daten. Sie machen auch unterschiedliche Voraussagen bezüglich unterschiedlich großer Belohnungen (Mazur, 2006). Das hyperbolische Modell sagt einen Wechsel der Präferenzen voraus, wenn Zeitspanne bis zum Erhalt der Belohnung sehr groß ist. Das exponentielle Modell tut das nicht. Bei einem identischen Wert für b kommt es so zu unterschiedlichen Vorhersagen. Ein Beispiel für eine Vorhersage des hyperbolischen Modells: Der subjektive Wert eines niedrigen ($ 500) und eines hohen ($ 1.000) Geldbetrages ist relativ niedrig, wenn die Zeitspanne, bis man diesen Betrag erhalten kann, sehr groß ist: Sagen wir er liegt bei *$ 200, wenn man auf $ 500 ein Jahr lang und bei *$ 250, wenn man auf $ 1.000 zwei Jahre lang warten muss. Wenn sich die Zeitspanne verkürzt, kehrt sich das Verhältnis jedoch um. Nach fast einem Jahr, steigt der subjektive Wert der $ 500 stark an, während der subjektive Wert der $ 1.000, auf die man ja ein weiteres Jahr warten muss, weiterhin niedrig bleibt. Dieser subjektive Wert der $ 1000 ist ab einem bestimmten Zeitpunkt niedriger als der subjektive Wert der $ 500, die man bald erhalten wird. Während man zuvor den $ 1.000, die man in zwei Jahren bekommt, subjektiv einen höheren Wert beimaß als den $ 500, die man in einem Jahr bekommt, zieht man nun die $ 500, die man bald erhalten wird, den $ 1.000, die man in mehr als einem Jahr bekommt, vor. Solche Wechsel der Präferenzen kommen sowohl bei Menschen als auch bei Tieren immer wieder vor. Green et al. (1994) etwa ließen ihre Versuchspersonen zunächst zwischen $ 20 jetzt und $ 50 in einem Jahr wählen. Nur 30 % der Versuchspersonen entschieden sich für die größere, spätere Belohnung. Wenn dieselben Versuchspersonen aber zwischen $ 20 in einem Jahr und $ 50 in zwei Jahren wählen sollten, entschieden sich 80 % für die größere, spätere Belohnung.

Das Ausmaß der Verstärkerabwertung (der Wert von b in den obigen Gleichungen) variiert mit der Höhe der Belohnung. Green et al. (1997) etwa fanden, dass b kleiner wurde, je mehr sich der Wert der Belohnung von ursprünglich $ 100 dem höchsten Wert von $ 25.000 annäherte. Bei einer sehr großen Belohnung sind Menschen eher bereit, auf die größere und spätere Belohnung zu warten, als die geringere und sofortige Belohnung zu nehmen. Als Green et al. (1997) den Betrag weiter von $ 25.000 auf bis zu $ 100.000 steigerten, fanden sie jedoch keine weitere Abnahme der Verstärkerabwertung.

Bei der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit steigt dagegen der Wert von b mit der Höhe das Betrages (Green et al., 1999). Hat die Versuchsperson die Wahl zwischen relativ kleinen Geldbeträgen, die sie entweder mit Sicherheit oder nur mit einer bestimmten Wahrscheinlichkeit bekommt, zieht sie in der Regel den etwas größeren, aber nur mit einer bestimmten Wahrscheinlichkeit verfügbaren Betrag dem sicheren Geldbetrag vor. Ist der Betrag sehr groß, wählt sie lieber die sichere Variante, den kleineren Betrag.

Eine Abwertung gibt es auch bei Verlusten. So fragt man die Versuchspersonen hier, ob sie lieber $ 5 sofort oder $ 10 in einem Jahr bezahlen möchten. Bei diesen Versuchen findet man regelmäßig, dass Verluste nicht so schnell abwerten wie Gewinne. Der subjektive Wert von 10 $, die man in einem Jahr bekommt, beträgt z. B. $ 5. Dagegen beträgt der subjektive Wert von $ 10, die man in einem Jahr bezahlen muss, $ 9.

Die meisten Forscher gehen davon aus, dass das individuelle Ausmaß der Verstärkerabwertung relativ stabil ist. Bickel et al. (2011) dagegen berichten von einem Training zur Verbesserung des Arbeitsgedächtnisses, das die Verstärkerabwertung bei ihren Versuchspersonen (Drogenabhängigen) um 50 % reduziert hat.

Verstärkerabwertung und Drogenmissbrauch

Madden et al. (1997) verglichen das Ausmaß der Verstärkerabwertung bei 38 opiatabhängigen Versuchspersonen mit dem von 18 Versuchspersonen einer Kontrollgruppe. Die Drogenabhängigen zeigten bei den hypothetischen Geldbeträgen eine deutlicher ausgeprägte Verstärkerabwertung als die Kontrollpersonen. Der Wert der Konstante b aus den obigen Gleichungen lag bei ihnen bei 0,22, im Vergleich zu 0,03 bei den nicht-drogenabhängigen Versuchspersonen der Kontrollgruppe.

Madden et al. (1997) untersuchten auch das Ausmaß der Verstärkerabwertung bei dieser Population, wenn es um hypothetische Heroindosen ging. Die Versuchspersonen hatten die (hypothetische) Wahl zwischen einer kleineren Dosis, die sie sofort erhalten könnten und einer größeren Dosis, die sie zu einem späteren Zeitpunkt bekommen könnten. Die Verstärkerabwertung war hier gigantisch groß, der Parameter b lag bei erstaunlichen 4,17.

Die Ergebnisse von Madden et al. (1997) konnten mittlerweile vielfach repliziert werden (Bickel & Marsch, 2001; Reynolds, 2006; Yi, Mitchell & Bickel, 2010).

Etwas anders sehen die Verhältnisse bei der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit aus. In den weniger Studien zu diesem Thema mit Drogenabhängigen unterschieden diese sich kaum von den anderen Versuchspersonen. Es liegt nahe, dass diese Personen, die eine kleine, sofortige Belohnung einer späteren, größeren Belohnung vorziehen, umgekehrt eher die sichere, kleinere Belohnung der unsicheren, größeren Belohnung vorziehen. Was ihren „Stoff“ angeht, zeigen Drogenabhängige eine stark ausgeprägte Risikovermeidung. Sie wollen lieber die kleiner Menge an Drogen sicher bekommen, als das Risiko einzugehen, eine größere Menge an Drogen evtl. nicht zu bekommen.

Das individuelle Ausmaß der Verstärkerabwertung lässt sich nutzen, um das Risiko für eine Drogenkarriere vorauszusagen. Audrain-McGovern et al. (2009) konnten in einer Langzeitstudie mit Jugendlichen zeigen, dass eine stärker ausgeprägte Tendenz zur zeitlichen Verstärkerabwertung in jungen Jahren das Risiko, später zum Raucher zu werden, vorhersagen kann. Eine geringere Verstärkerabwertung zu Beginn des Entzugs dagegen erhöht die Chancen, dass ehemalige Kokainkonsumenten clean bleiben (Washio et al., 2011).

Literatur

Audrain-McGovern, J.; Rodriguez, D.; Epstein, L. H.; Cuevas, J.; Rodgers, K. & Wileyto, E. P. (2009). Does delay discounting play an etiological role in smoking or is it a consequence of smoking? Drug and Alcohol Dependence, 103, 99-106.

Bickel, W. K. & Marsch, L. A. (2001). Toward a behavioral economic understanding of drug dependence: Delay discounting processes. Addiction, 96, 73-86.

Bickel, W. K.; Yi, R.; Landes, R. D.; Hill, P. F. & Baxter, C. (2011). Remember the future: Working memory training decreases delay discounting among stimulant addicts. Biological Psychiatry, 69, 260-265.

Green, L.; Myerson, J. & McFadden, E. (1997). Rate of temporal discounting decreases with amount of reward. Memory & Cognition, 25, 715-723.

Green, L.; Myerson, J. & Ostaszewski, P. (1999). Amount of reward has opposite effects on the discounting of delayed and probabilistic outcomes. Journal of Experimental Psychology: Learning, Memory, and Cognition, 25, 418-427.

Madden, G. J.; Petry, N. M.; Badger, G. J. & Bickel, W. K. (1997). Impulsive and self-control choices in opiod-dependend patients and non-drug-using control participants: Drug and monetary rewards. Experimental and Clinical Psychopharmacology, 5, 256-262.

Mazur, J. E. (1987). An adjusting procedure for studying delayed reinforcement. In M. L. Commons; J. E. Mazur; J. A. Nevin & H. Rachlin (Eds). Quantitative analysis of behavior: Vol. 5. The effect of delay and intervening envents of reinforcement value (pp. 55-73). Hillsdale, NJ: Erlbaum.

Mazur, J. E. (2006). Mathematical models and the experimental analysis of behavior. Journal of the Experimental Analysis of Behavior, 85, 275-291.

McKerchar, T. L. & Renda, C. R.. (2012). Delay and probability discounting in humans: An overview. The Psychological Record, 62(4), 817-834.

Myerson, J. & Green, L. (1995). Discounting of delayed rewards: Models of individual choice. Journal of the Experimental Analysis of Behavior, 64, 263-276.

Rachlin, H.; Raineri, A. & Cross, D. (1991). Subjective probability and delay. Journal of the Experimental Analysis of Behavior, 55, 223-244.

Reynolds, B. (2006). A review of delay-discounting research with humans: Relations to drug use and gambling. Behavioural Pharmacology, 17, 651-667.

Yi, R.; Mitchell, S. H. & Bickel, W. K. (2010). Delay discounting and substance abuse-dependence. In G. J. Madden & W. K. Bickel (Eds.), Impulsivity: The behavioral and neurological science of discounting (pp. 191-211). Washington, D. C.: American Psychological Association.

2 Kommentare

Eingeordnet unter Verhaltensanalyse, Verstärkung