Lieber den Spatz in der Hand…

Taubeals die Taube auf dem Dach. Die Tendenz, lieber eine sichere oder sofortige Belohnung zu wählen, als auf eine höhere, aber später Belohnung zu warten, bezeichnet man als Verstärkerabwertung.

Die Verstärkerabwertung gibt es sowohl in zeitlicher Hinsicht als auch in Bezug auf die Wahrscheinlichkeit:

  • Die zeitliche Verstärkerabwertung (delay discounting) bezieht sich auf die Abnahme des subjektiven gegenwärtigen Wertes einer Belohnung als einer Funktion der Zeitspanne, bis man die Belohnung erhält.
  • Die Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit (probability discounting) ist die Abnahme des subjektiven Wertes einer Belohnung in Abhängigkeit der abnehmenden Wahrscheinlichkeit, diese Belohnung zu erhalten.

Zu beiden Formen der Verstärkerabwertung gibt es für das Tierreich eine sehr umfangreiche Literatur. In Bezug auf die Ausprägung der Verstärkerabwertung bei Menschen ist die Forschungsbasis etwas schmäler. McKerchar et al. (2012) geben einen Überblick.

Eine der ersten und folgenreichsten Untersuchungen zur zeitlichen Verstärkerabwertung stammt von Rachlin et al. (1991). Die Autoren baten 40 Studenten, zwischen zwei hypothetischen Geldbeträgen zu wählen. Jeder Teilnehmer sollte entscheiden, ob er lieber $ 1.000 in einem Monat oder einen entsprechend niedrigeren Geldbetrag sofort erhalten möchte. Die Geldbeträge waren gestaffelt von $ 990 in Zehnerschritten abwärts. Gewertet wurde, wie gering ein Geldbetrag, den der Teilnehmer bei sofortiger Zahlung akzeptieren würde, sein durfte, damit er diesen den $ 1.000 in einem Monat vorziehen würde. Dabei wurden die Geldbeträge einmal in absteigender Reihenfolge (von $ 990 abwärts) und einmal in aufsteigender Reihenfolge (von $ 1 über $ 10 in Zehnerschritten aufwärts) angeboten. Das arithmetische Mittel aus beiden Beträgen (dem, den die Versuchsperson bei aufsteigender und dem, den sie bei absteigender Präsentation wählte) wurde dann als „subjektiver gegenwärtiger Wert“ von „$ 1.000 in einem Monat“ ermittelt.

Diese Fragestellung wurde sodann noch für mehrere Zeitintervalle zwischen einem Monat und 50 Jahren wiederholt.

Dieses Untersuchungsparadigma wurde mittlerweile in vielen Varianten wiederholt, analog auch mit echten (nicht nur hypothetischen) Geldbeträgen, die die Versuchsperson erhalten konnte. Dabei fand man keine systematischen Unterschiede zwischen den Resultaten bei echten und nur hypothetischen Geldbeträgen.

Diese Experimente wurden auch zur Untersuchung der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit durchgeführt. Die Fragestellung lautete hier, ob die Versuchsperson lieber $ 1.000 mit einer Wahrscheinlichkeit von 95 % oder einen entsprechend geringeren Geldbetrag mit 100 % Sicherheit erhalten wolle. Auch hier wurden die Geldbeträge sowohl in absteigender als auch aufsteigender Reihenfolge präsentiert und auch verschiedene Wahrscheinlichkeiten zwischen 5 % und 95 % vorgegeben.

Rachlin et al. (1991) beschreiben ihre Ergebnisse mittels zweier Funktionen (Gleichungen). Die exponentielle Funktion sieht so aus:

  1. V = Ae-bX

Dabei steht V für den subjektiven Wert der Belohnung, A ist der absolute Betrag der Belohnung, e ist eine Konstante (bei Rachlin et al. 2,72) und b ist ein Parameter, der das Ausmaß der Verstärkerabwertung beschreibt. X ist entweder die Zeitspanne, bis man die Belohnung bekommt oder aber die Wahrscheinlichkeit, dass man die Belohnung nicht bekommt. Nach dieser Funktion nimmt der subjektive Wert mit jeder Vergrößerung der Zeitspanne, bis man den Betrag erhält (oder je unwahrscheinlicher die Belohnung ist), um einen festen Prozentanteil ab.

Die hyperbolische Funktion sieht so aus:

  1. V = A/(1-bx)

Nach dieser Funktion nimmt der subjektive Wert mit einem zunehmend kleineren Prozentanteil ab, je größer die Zeitspanne bis zum Erhalt der Belohnung wird.

Mazur (1987) untersuchte die zeitliche Verstärkerabwertung bei Tauben. Die Tiere hatten hier die Wahl zwischen kleineren Futtermengen, die sie sofort erhielten und größeren Futtermengen, die sie erst verzögert erhielten. Mazur (1987) fand, dass die Gleichung (2) – das hyperbolische Modell – das Verhalten der Tiere besser beschreibt als die Gleichung (1). Rachlin et al. (1991) konnten diesen Befund bei ihren Experimenten mit menschlichen Versuchspersonen bestätigen. Beim exponentiellen Modell werden die subjektiven Werte überschätzt, wenn die Zeitspannen relativ gering sind und überschätzt, wenn sie eher groß sind. Das hyperbolische Modell dagegen kann mehr als 99 % der Varianz erklären. Die Überlegenheit des hyperbolischen Modells konnte seitdem in unzähligen Studien bestätigt werden.

Zum hyperbolischen Modell gibt es mittlerweile eine Weiterentwicklung, das Hyperboloid (Myerson & Green, 1995). Dabei wird der Nenner des Bruchs der Gleichung (2) potenziert:

  1. V = A/(1-bx)s

Diese allgemeingültigere Version des hyperbolischen Modells bildet die Daten noch besser ab.

Die beiden Modelle aus den Gleichungen (1) und (2) unterscheiden sich nicht nur in Hinsicht auf ihre Übereinstimmung mit den Daten. Sie machen auch unterschiedliche Voraussagen bezüglich unterschiedlich großer Belohnungen (Mazur, 2006). Das hyperbolische Modell sagt einen Wechsel der Präferenzen voraus, wenn Zeitspanne bis zum Erhalt der Belohnung sehr groß ist. Das exponentielle Modell tut das nicht. Bei einem identischen Wert für b kommt es so zu unterschiedlichen Vorhersagen. Ein Beispiel für eine Vorhersage des hyperbolischen Modells: Der subjektive Wert eines niedrigen ($ 500) und eines hohen ($ 1.000) Geldbetrages ist relativ niedrig, wenn die Zeitspanne, bis man diesen Betrag erhalten kann, sehr groß ist: Sagen wir er liegt bei *$ 200, wenn man auf $ 500 ein Jahr lang und bei *$ 250, wenn man auf $ 1.000 zwei Jahre lang warten muss. Wenn sich die Zeitspanne verkürzt, kehrt sich das Verhältnis jedoch um. Nach fast einem Jahr, steigt der subjektive Wert der $ 500 stark an, während der subjektive Wert der $ 1.000, auf die man ja ein weiteres Jahr warten muss, weiterhin niedrig bleibt. Dieser subjektive Wert der $ 1000 ist ab einem bestimmten Zeitpunkt niedriger als der subjektive Wert der $ 500, die man bald erhalten wird. Während man zuvor den $ 1.000, die man in zwei Jahren bekommt, subjektiv einen höheren Wert beimaß als den $ 500, die man in einem Jahr bekommt, zieht man nun die $ 500, die man bald erhalten wird, den $ 1.000, die man in mehr als einem Jahr bekommt, vor. Solche Wechsel der Präferenzen kommen sowohl bei Menschen als auch bei Tieren immer wieder vor. Green et al. (1994) etwa ließen ihre Versuchspersonen zunächst zwischen $ 20 jetzt und $ 50 in einem Jahr wählen. Nur 30 % der Versuchspersonen entschieden sich für die größere, spätere Belohnung. Wenn dieselben Versuchspersonen aber zwischen $ 20 in einem Jahr und $ 50 in zwei Jahren wählen sollten, entschieden sich 80 % für die größere, spätere Belohnung.

Das Ausmaß der Verstärkerabwertung (der Wert von b in den obigen Gleichungen) variiert mit der Höhe der Belohnung. Green et al. (1997) etwa fanden, dass b kleiner wurde, je mehr sich der Wert der Belohnung von ursprünglich $ 100 dem höchsten Wert von $ 25.000 annäherte. Bei einer sehr großen Belohnung sind Menschen eher bereit, auf die größere und spätere Belohnung zu warten, als die geringere und sofortige Belohnung zu nehmen. Als Green et al. (1997) den Betrag weiter von $ 25.000 auf bis zu $ 100.000 steigerten, fanden sie jedoch keine weitere Abnahme der Verstärkerabwertung.

Bei der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit steigt dagegen der Wert von b mit der Höhe das Betrages (Green et al., 1999). Hat die Versuchsperson die Wahl zwischen relativ kleinen Geldbeträgen, die sie entweder mit Sicherheit oder nur mit einer bestimmten Wahrscheinlichkeit bekommt, zieht sie in der Regel den etwas größeren, aber nur mit einer bestimmten Wahrscheinlichkeit verfügbaren Betrag dem sicheren Geldbetrag vor. Ist der Betrag sehr groß, wählt sie lieber die sichere Variante, den kleineren Betrag.

Eine Abwertung gibt es auch bei Verlusten. So fragt man die Versuchspersonen hier, ob sie lieber $ 5 sofort oder $ 10 in einem Jahr bezahlen möchten. Bei diesen Versuchen findet man regelmäßig, dass Verluste nicht so schnell abwerten wie Gewinne. Der subjektive Wert von 10 $, die man in einem Jahr bekommt, beträgt z. B. $ 5. Dagegen beträgt der subjektive Wert von $ 10, die man in einem Jahr bezahlen muss, $ 9.

Die meisten Forscher gehen davon aus, dass das individuelle Ausmaß der Verstärkerabwertung relativ stabil ist. Bickel et al. (2011) dagegen berichten von einem Training zur Verbesserung des Arbeitsgedächtnisses, das die Verstärkerabwertung bei ihren Versuchspersonen (Drogenabhängigen) um 50 % reduziert hat.

Verstärkerabwertung und Drogenmissbrauch

Madden et al. (1997) verglichen das Ausmaß der Verstärkerabwertung bei 38 opiatabhängigen Versuchspersonen mit dem von 18 Versuchspersonen einer Kontrollgruppe. Die Drogenabhängigen zeigten bei den hypothetischen Geldbeträgen eine deutlicher ausgeprägte Verstärkerabwertung als die Kontrollpersonen. Der Wert der Konstante b aus den obigen Gleichungen lag bei ihnen bei 0,22, im Vergleich zu 0,03 bei den nicht-drogenabhängigen Versuchspersonen der Kontrollgruppe.

Madden et al. (1997) untersuchten auch das Ausmaß der Verstärkerabwertung bei dieser Population, wenn es um hypothetische Heroindosen ging. Die Versuchspersonen hatten die (hypothetische) Wahl zwischen einer kleineren Dosis, die sie sofort erhalten könnten und einer größeren Dosis, die sie zu einem späteren Zeitpunkt bekommen könnten. Die Verstärkerabwertung war hier gigantisch groß, der Parameter b lag bei erstaunlichen 4,17.

Die Ergebnisse von Madden et al. (1997) konnten mittlerweile vielfach repliziert werden (Bickel & Marsch, 2001; Reynolds, 2006; Yi, Mitchell & Bickel, 2010).

Etwas anders sehen die Verhältnisse bei der Verstärkerabwertung in Bezug auf die Wahrscheinlichkeit aus. In den weniger Studien zu diesem Thema mit Drogenabhängigen unterschieden diese sich kaum von den anderen Versuchspersonen. Es liegt nahe, dass diese Personen, die eine kleine, sofortige Belohnung einer späteren, größeren Belohnung vorziehen, umgekehrt eher die sichere, kleinere Belohnung der unsicheren, größeren Belohnung vorziehen. Was ihren „Stoff“ angeht, zeigen Drogenabhängige eine stark ausgeprägte Risikovermeidung. Sie wollen lieber die kleiner Menge an Drogen sicher bekommen, als das Risiko einzugehen, eine größere Menge an Drogen evtl. nicht zu bekommen.

Das individuelle Ausmaß der Verstärkerabwertung lässt sich nutzen, um das Risiko für eine Drogenkarriere vorauszusagen. Audrain-McGovern et al. (2009) konnten in einer Langzeitstudie mit Jugendlichen zeigen, dass eine stärker ausgeprägte Tendenz zur zeitlichen Verstärkerabwertung in jungen Jahren das Risiko, später zum Raucher zu werden, vorhersagen kann. Eine geringere Verstärkerabwertung zu Beginn des Entzugs dagegen erhöht die Chancen, dass ehemalige Kokainkonsumenten clean bleiben (Washio et al., 2011).

Literatur

Audrain-McGovern, J.; Rodriguez, D.; Epstein, L. H.; Cuevas, J.; Rodgers, K. & Wileyto, E. P. (2009). Does delay discounting play an etiological role in smoking or is it a consequence of smoking? Drug and Alcohol Dependence, 103, 99-106.

Bickel, W. K. & Marsch, L. A. (2001). Toward a behavioral economic understanding of drug dependence: Delay discounting processes. Addiction, 96, 73-86.

Bickel, W. K.; Yi, R.; Landes, R. D.; Hill, P. F. & Baxter, C. (2011). Remember the future: Working memory training decreases delay discounting among stimulant addicts. Biological Psychiatry, 69, 260-265.

Green, L.; Myerson, J. & McFadden, E. (1997). Rate of temporal discounting decreases with amount of reward. Memory & Cognition, 25, 715-723.

Green, L.; Myerson, J. & Ostaszewski, P. (1999). Amount of reward has opposite effects on the discounting of delayed and probabilistic outcomes. Journal of Experimental Psychology: Learning, Memory, and Cognition, 25, 418-427.

Madden, G. J.; Petry, N. M.; Badger, G. J. & Bickel, W. K. (1997). Impulsive and self-control choices in opiod-dependend patients and non-drug-using control participants: Drug and monetary rewards. Experimental and Clinical Psychopharmacology, 5, 256-262.

Mazur, J. E. (1987). An adjusting procedure for studying delayed reinforcement. In M. L. Commons; J. E. Mazur; J. A. Nevin & H. Rachlin (Eds). Quantitative analysis of behavior: Vol. 5. The effect of delay and intervening envents of reinforcement value (pp. 55-73). Hillsdale, NJ: Erlbaum.

Mazur, J. E. (2006). Mathematical models and the experimental analysis of behavior. Journal of the Experimental Analysis of Behavior, 85, 275-291.

McKerchar, T. L. & Renda, C. R.. (2012). Delay and probability discounting in humans: An overview. The Psychological Record, 62(4), 817-834.

Myerson, J. & Green, L. (1995). Discounting of delayed rewards: Models of individual choice. Journal of the Experimental Analysis of Behavior, 64, 263-276.

Rachlin, H.; Raineri, A. & Cross, D. (1991). Subjective probability and delay. Journal of the Experimental Analysis of Behavior, 55, 223-244.

Reynolds, B. (2006). A review of delay-discounting research with humans: Relations to drug use and gambling. Behavioural Pharmacology, 17, 651-667.

Yi, R.; Mitchell, S. H. & Bickel, W. K. (2010). Delay discounting and substance abuse-dependence. In G. J. Madden & W. K. Bickel (Eds.), Impulsivity: The behavioral and neurological science of discounting (pp. 191-211). Washington, D. C.: American Psychological Association.

Advertisements

2 Kommentare

Eingeordnet unter Verhaltensanalyse, Verstärkung

2 Antworten zu “Lieber den Spatz in der Hand…

  1. Pingback: Das Gefangenendilemma: Kooperation kann man lernen, aber es hält nicht lange vor | Verhalten usw.

  2. Pingback: Fast-Food-Lokale aufsuchen und nicht mit Geld umgehen können | Verhalten usw.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s