Allgemeine Psychologie: Denken und Lernen

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

Skinner entwickelte seine Theorie basierend auf den Ergebnissen im Tierversuch v. a. mit Ratten und Tauben. Nachdem er festgestellt hatte, wie gut Tauben konditioniert werden können, verfolgte er während des Zweiten Weltkriegs ein Projekt zur ferngesteuerten Lenkung von Raketen, die durch die Pickbewegungen der Tauben auf Kurs gehalten werden sollten. Das Projekt wurde eine Zeitlang vom amerikanischen National Defense Research Committee finanziert, dann aber zugunsten anderer militärischer Projekte, die unmittelbareren Erfolg versprachen, eingestellt (Bjork, 1997).

Skinner führte seine Versuche mit einem eigens ersonnenen Behälter, der sogenannten Skinner-Box, durch (s. Abbildung 15).


Abbildung 15: Die Skinner-Box (aus Zimbardo & Gerrig, 2004).

In der Skinner-Box befindet sich das Versuchstier, ein Hebel zum Drücken, ein Futterspender und gegebenenfalls ein Lautsprecher bzw. verschiedenfarbige Lampen. Zunächst wird registriert, welche Handlungen das Versuchstier ausführt (wie sich in der Schachtel bewegen, schauen, schnuppern etc.). Wenn das Versuchstier zufällig auf den Hebel drückt, wird dieses Verhalten (der vom Versuchsleiter ausgewählte Operant) sofort mit einer Futtergabe verstärkt. Dies erfolgt automatisch und wird auch automatisch registriert. Das Resultat eines solchen Versuchs ist, dass das Versuchstier die Häufigkeit des verstärkten Verhaltens (Hebeldruck) über die Basisrate hinweg kontinuierlich erhöht, bis eine Plateauphase erreicht ist, bei der selbst eine weitere Futtergabe keine Erhöhung der Verhaltenshäufigkeit mehr bewirkt. Die zeitliche Distanz zwischen Operant und Verstärkern hat einen großen Einfluss auf die Lerngeschwindigkeit. Je kürzer der zeitliche Abstand zwischen Operant und Verstärker ausfällt, desto höher ist das Lerntempo (der optimale zeitliche Abstand liegt dabei unter einer halben Sekunde, bei einem Abstand von mehr als fünf Sekunden tritt praktisch kein Lernen mehr auf, s. Grice, 1948).

Skinner, der ein geschickter Bastler war, hatte zeitlebens eine Schwäche für Aufbewahrungsbehälter („boxes“). So entwickelte er einen „Baby-Tender“, ein Plexiglasgehäuse zur Aufbewahrung von Babys (s. Abbildung 16), in den er auch seine elf Monate alte Tochter Deborah über 2½ Jahre immer wieder steckte, wodurch das Kind nach Skinners Ansicht „den sonst üblichen Zwängen der Erwachsenen entzogen war“ (Der Spiegel 40/1971 vom 27.9.1971), und schlief im höheren Lebensalter auch selbst in einer von japanischen Freunden geschenkten Schlafbox (Bjork, 1997).


Abbildung 16: Der Baby-Tender von Skinner.

Skinner versuchte in späteren Werken zu zeigen, dass seine Prinzipien der operanten Konditionierung auf alle Bereiche des gesellschaftlichen Zusammenlebens anwendbar sind (s. das Buch „Science and Human Behavior“ von 1953, dt. Skinner, 1973). Die Kontrolle menschlichen Verhaltens durch wissenschaftliche Methoden war das erklärte Ziel Skinners (Skinner, 1973). Zugutehalten muss man ihm, dass die Bestrafung bei ihm nur einen sehr geringen Stellenwert hatte, weil er nicht von der Dauerhaftigkeit ihrer Wirkung überzeugt war. Auch in „Jenseits von Freiheit und Würde“6 (Beyond Freedom and Dignity, Skinner, 1972b) bleibt er seinem mechanistischen Weltbild und seiner Idee treu, Verhalten wissenschaftlich kontrollieren zu können, um eine bessere Gesellschaft zu entwickeln: „A scientific view of man offers exciting possibilities. We have not yet seen what man can make of man“ (Skinner, 1972b, S. 215). Nimmt man heute Bücher wie „Wissenschaft und menschliches Verhalten“ oder „Jenseits von Freiheit und Würde“ zur Hand, wirken die Werke nicht nur erstaunlich unwissenschaftlich und oberflächlich (Skinner formuliert in den späteren Werken zunehmend utopische Gesellschaftsentwürfe, ohne seine aus dem Tierversuch abgeleiteten Aussagen auf konkrete wissenschaftliche Studien zu stützen), sondern geradezu nichtssagend und inhaltsleer:

Literatur, Kunst und Unterhaltung sind künstliche Verstärker. Ob die Leute Bücher, Kunstwerke oder Eintrittskarten kaufen, hängt davon ab, ob diese Bücher, Bilder, Schauspielaufführungen oder Konzerte sie verstärken. Häufig beschränkt sich ein Künstler auf die Erforschung eines Gegenstands, der ihn selbst verstärkt. Tut er das, so „spiegelt sein Werk seine Persönlichkeit wider“, so dass es nun dem Zufall oder der Universalität des Künstlers zuzuschreiben ist, wenn sein Buch, sein Theaterstück, sein Musikstück oder sein Gemälde auf andere verstärkend wirkt. Insoweit ihm ein kommerzieller Erfolg wichtig ist, kann er auch eine direkte Untersuchung von Verhalten anderer durchführen. (Skinner, 1973, S. 78)

Lesenswert ist hingegen Skinners 1948 erschienener utopischer Roman „Futurum Zwei: ‚Walden Two‘7. Die Vision einer aggressionsfreien Gesellschaft“ (Skinner, 1972c), der mit einiger Verspätung ab den 1960er-Jahren doch noch ein Bestseller wurde, weil er viel über Skinners Persönlichkeit verrät. Darin skizziert er seine Vorstellungen von einer besseren Gesellschaft auf Grundlage wissenschaftlicher Experimente. Es handelt sich um eine Gesellschaft, in der das Gemeinschaftsleben im Vordergrund steht (dadurch kann Wohnraum, können Transportmittel wie Autos gespart werden), eine Gesellschaft, in der alles durch sogenannte Planer optimiert ist (denen wiederum die Wissenschaftler zuarbeiten), angefangen von den Teetassen bis hin zum Zusammenleben der Menschen. Selbst der Einfluss des Wetters kann kontrolliert werden, indem möglichst viel überdacht wird. Gemeinschaftsräume sind nie überfüllt, weil sich alle ihre Zeit nach ihren Bedürfnissen einteilen können. In „Futurum Zwei“ ist es nicht ungewöhnlich, dass 15-oder 16-Jährige schon Kinder bekommen, weil in dieser Zeit die „Liebeskraft“ am größten ist und das Jünglingsalter mit seinen überflüssigen Problemen und „Hinzögerungen“ (S. 121) so deutlich verkürzt wird. Wenn eine junge Frau dann ihre plangemäße Anzahl an Kindern bekommen hat (dabei wird auch die Möglichkeit der künstlichen Befruchtung als Methode der genetischen Planung eingeräumt), ist sie noch immer jung genug, um die gleichen Chancen wie die Männer am Arbeitsmarkt zu haben. Der Arbeitsmarkt regelt sich, indem jeder die Arbeit wählt, die ihm zusagt. Ungeliebte Tätigkeiten sind mehr wert als beliebte und müssen daher nur wenige Stunden in der Woche verrichtet werden. Obwohl die Ehe noch ihren Platz neben dem Modell der Zukunft, der Zuchtwahl, hat, soll die Tradition der Familie geschwächt werden, indem die Kinder von Anfang an der Gruppenbetreuung übergeben werden: „In früheren vorwissenschaftlichen Zeiten konnte den Eltern die erste Erziehung des Kindes überlassen bleiben – und wurde ihnen ja auch tatsächlich überlassen. Aber mit dem Aufhommen der Verhaltensforschung ist alles anders. […] Unser Bestreben geht dahin, dass jedes erwachsene Mitglied alle Kinder hier als eigene sieht, und dass jedes Kind alle Erwachsenen als Eltern empfindet. Zu diesem Zweck lehnen wir es als Verstoß gegen guten Geschmack ab, dass ein eigenes Kind in irgendeiner Weise bevorzugt wird“ (Skinner, 1972c, S. 130). Der Roman ist durchzogen von einer Ablehnung des Individualismus und dem Misstrauen gegenüber Emotionen als schwer kontrollierbare Phänomene: „Der Neuling mag noch nach Motiven handeln, die wir bei der Behandlung unserer Kinder sorgfältig ausschließen. Er mag noch unter Emotionen leiden, die wir über Bord werfen“ (ebd., S. 147). „Futurum Zwei“ erinnert insgesamt in vielem eher an ein totalitäres System, wie es zur Zeit der Entstehung des Romans in der Sowjetunion realisiert war, als an westliche Gesellschaften, auch wenn die Darstellung im Vergleich zur Sowjetunion wesentlich abgemildert und ohne Gewaltmaßnahmen erscheint8 (in „Futurum Zwei“ funktioniert alles problemlos ohne Friktionen, anstelle der Demokratie steht die Kontrolle über die Wünsche der Bewohner). Am Ende des Romans beschließt Skinners anfangs frustriertes Alter Ego, der Erzähler und Psychologieprofessor Burris („Was mich so bekümmerte, waren die klaren Beweise, dass meine Lehrtätigkeit ihr Ziel verfehlt hatte“, Skinner, 1972c, S. 14), zu kündigen und nach Futurum Zwei zu ziehen: „Dann, unter Außerachtlassung des üblichen Telegrammstils und meine euphorische Ausgelassenheit mühsam beherrschend, malte ich langsam und pedantisch diese Worte: LIEBER REKTOR MITTELBACH STOP SIE KÖNNEN SICH IHRE BLÖDE UNIVERSITÄT …“ (Skinner, 1972c, S. 276). Typisch für Skinner ist, dass dieses Aufbegehren gegen Autoritäten selbst im Roman noch einmal kontrolliert und in seine Schranken gewiesen wird: „Das hübsche Fräulein hinter dem Schalter überlas die Nachricht von vorn bis hinten mit beruflicher Routine. […] Es tut mir leid, mein Herr, aber diese Art von Text können wir nicht weitergeben‘“ (ebd., S. 277). Wie immer, wenn man noch so gut gemeinte behavioristische Phantasien über eine bessere Gesellschaft liest (s. Watson, 1928/29, dt. 1985), ist man am Ende froh, in einer Gesellschaft zu leben, in der nicht die sogenannten Experten den maßgeblichen Einfluss auf die Gestaltung der Gesellschaft haben.

Skinner versuchte selbst sprachliches Verhalten rein auf die Prinzipien des operanten Konditionierens zurückzuführen. Sprachliches Verhalten unterscheidet sich von sonstigem Verhalten dadurch, dass es nicht direkt auf die Umwelt einwirkt, sondern über die Vermittlung eines anderen Menschen: „Behavior which is effective only through the mediation of other persons“ (Skinner, 1957, S. 2). Wenn jemand „Bitte gib mir Wasser“ sagt, wird er dadurch verstärkt, dass ihm die angesprochene Person Wasser bringt (die wiederum durch Konditionierung gelernt hat, solchen Bitten nachzukommen). Die Bedeutung von Aussagen erschöpft sich für Skinner letztlich in der empirischen Beziehung zwischen der Aussage und ihrer Wirkung auf den Hörer. Wenn das Kind „Zuckerl“ sagt, bekommt es das Zuckerl, wenn man „Raus!“ ruft, öffnet sich die Tür: „Candy! is characteristically followed by the receipt of candy and Out! by the opening of the door. These effects are not inevitable, but we can usually find one consequence of each response which is commoner than any other“ (Skinner, 1957, S. 35). Auch Denken ist für Skinner letztlich nur Verhalten, er widersteht aber als orthodoxer Behaviorist der Versuchung, sich eingehender mit dem kognitiven Innenleben zu befassen. Noam Chomsky (1959) unterzog diesen Ansatz einer viel beachteten Kritik (s. auch Günther, 1976), die allerdings selbst Schwächen hat (MacCorquodale, 1970); heute ist der Ansatz nur mehr von historischem Interesse. Die Kritikpunkte sind zahlreich, hier sei nur darauf hingewiesen, dass es Skinner nicht gelungen ist, plausibel zu machen, dass jede Aussage auf spezifische Reiz-Reaktions-Verbindungen rückführbar ist:

 

Wenn, um ein Skinnersches Beispiel zu nehmen, eine Sonate gespielt wird und ein Hörer sagt „Mozart“, so soll die Musik der Reiz sein und das Wort „Mozart“ die sprachliche Reaktion, die durch diesen Reiz hervorgerufen wird. Ebenso könnte der Hörer sagen „Scheußlich“, „Schön“, „Das hat meine Großmutter immer gerne gehört“ usw. Um eine spezifische Reaktion zu erklären, muss Skinner also einen spezifischen Reiz annehmen, der in allen genannten Fällen der Reaktion verschieden ist. Aber welcher objektive Reiz entspricht z. B. der letztgenannten Antwort? Hier werden offenbar subjektive Faktoren für den Reiz bestimmend, d. h. die Reize verlieren ihre externe, physikalische Natur. Außerdem können wir die Reize nur über die Reaktion identifizieren, wir können also nicht Reaktionen durch Reize erklären und voraussagen, und damit wird die Analyse wertlos. (Kutschera, 1975, S. 92)

Der behavioristische Ansatz kann auch die grammatische Struktur von Aussagen überhaupt nicht erklären. Letztlich scheitern Skinners Bemühungen an einem falschen und überzogenen Wissenschaftsideal, das nur das seiner Ansicht nach empirisch objektiv Messbare als wissenschaftlich anerkennen will und das „Subjektive“, „Emotionale“ und der empirischen Messung und Steuerung nicht Zugängliche aus den Erklärungen verbannen will.9

1.2.4 Arten von Verstärkern

Man kann zwischen primären und sekundären Verstärkern bzw. Strafreizen unterscheiden (Herkner, 1992). Primäre Verstärker sind jene Verstärker, die ohne Lernerfahrung eine verstärkende oder verhaltensfördernde Wirkung haben. Sie sind angeboren und benötigen kein spezielles Training, wie Futter, Wasser oder Fortpflanzungsmöglichkeiten. Zu den primären Strafreizen gehören alle sehr intensiven Reize wie laute Geräusche, helles Licht, Stromstöße, intensive Gerüche, Hitze oder Kälte, die unangenehm bis schmerzhaft empfunden werden. Die Reduktion solcher primären Strafreize wirkt ebenfalls primär verstärkend, hat also Verstärkerqualitäten, während die Reduktion primärer Verstärker primär bestrafend wirkt (s. Tabelle 2).

Tabelle 2: Wirkung von Verstärkern und Strafreizen (bzw. deren Entzug) auf die Verhaltenshäufigkeit.


Verhaltenskonsequenz
Angenehmer ReizUnangenehmer Reiz
Auf die Reaktion folgt ein ReizPositive Verstärkung (Belohnung) ↑Bestrafung 1. Art ↓
Reaktion eliminiert oder vermeidet ReizBestrafung 2. Art (Omission training)↓Negative Verstärkung (Flucht/Vermeidung) ↑


Verhaltenskonsequenz
Angenehmer ReizUnangenehmer Reiz
Auf die Reaktion folgt ein ReizFutter, Lob, GeldSchmerz, Tadel
Reaktion eliminiert oder vermeidet ReizFutter, Lob, Geld wird entzogenSchmerz wird beendet Tadel wird nicht erteilt

Butler (1953) konnte in einer Studie zeigen, dass auch sensorische Stimulation primäre Verstärkerqualitäten hat. Bei dem Versuch öffnete sich entweder ein Fenster mit Blick in den Laborraum für 30 Sekunden oder die Sichtblende ging herunter. Das Öffnen des Fensters stellte für die Affen im Versuch einen primären Verstärker dar.

In einer berühmten Studie konnte Harry Harlow (1905–1981) wiederum klären, dass auch Körperkontakt ein primärer Verstärker ist. Er führte Experimente mit Rhesusaffen durch (Harlow, 1958). Die Rhesusaffen der Kontrollgruppe 1 waren bei ihren natürlichen Müttern aufgewachsen. Die Rhesusaffen der Versuchsgruppe 1 wurden nach ihrer Geburt von ihrer Mutter getrennt. Eine Assistentin fütterte sie regelmäßig, es bestanden aber sonst keinerlei Sozialkontakte. Die Rhesusaffen der Versuchsgruppe 2 hatten eine Drahtmutter zur Verfügung, bei der sie trinken konnten. Die Rhesusaffen der Versuchsgruppe 3 bekamen eine Futter spendende Drahtmutter und eine Handtuchmutter (sie spendete kein Futter, besaß aber einen gesichtsähnlichen Kopf und ihr Körper war mit Frottee überzogen, an dem sich die Affen festkrallen konnten) (s. Abbildung 17).


Abbildung 17: Harry Harlow mit seinen bedauernswerten Rhesusaffen.

Die Ergebnisse zeigen, dass die Affen der Versuchsgruppe 1 schon im Säuglingsalter schwere Verhaltensstörungen entwickelten. Sie reagierten kaum auf Außenreize, zeigten keine emotionalen Ausdrücke und verharrten apathisch in der Ecke. Ihre Bewegungen waren monoton und starr. Die Affen der Versuchsgruppe 3 hielten sich fast ausschließlich bei der Handtuchmutter auf. Bei Stress flüchteten sie zu ihr und klammerten sich an sie. Sie zeigten auch ein gewisses Neugier- und Explorationsverhalten, nachdem sie Zuflucht bei der Handtuchmutter gefunden hatten. Diese Gruppe suchte auch zu anderen Lebewesen Kontakt.

Alle Tiere der Versuchsgruppen, aber in besonderer Weise die der Gruppen 1 und 2 zeigten als erwachsene Tiere schwere Verhaltensauffälligkeiten. Sie reagierten mit Aggressionen oder sozialem Rückzug auf Artgenossen und ließen ein gestörtes Paarungsverhalten erkennen. Weibliche Rhesusaffen der Versuchsgruppen, die selbst Mütter geworden waren, versorgten ihre Kinder nicht und begegneten ihnen mit Aggressionen und Gewalt.

Die Versuche von Harlow, die aus heutiger Sicht ethisch nicht zu verantworten sind, belegen, dass es sich beim Bedürfnis nach Körperkontakt um ein angeborenes Bedürfnis handelt und Körperkontakt damit als primärer Verstärker eingesetzt werden kann.

Bei sekundären Verstärkern bzw. sekundären Strafreizen handelt es sich zunächst um neutrale Reize, die erst durch Lernprozesse zu Verstärkern bzw. Strafreizen werden. Beispiele für sekundäre Verstärker sind Lob, Geld oder Lächeln, Beispiele für sekundäre Strafreize sind Tadel, Geldstrafen oder ein böser Blick. Sekundäre Verstärker bzw. Strafreize werden durch Prozesse der klassischen Konditionierung gebildet, indem auf einen neutralen Reiz ein unbedingter primärer Verstärker oder Strafreiz folgt. Sekundäre Verstärker (Strafreize) kündigen also einen primären Verstärker (Strafreiz) an! Wenn in der Küche mit den Töpfen geklappert wird, ist das ein solcher sekundärer Verstärker, weil es die bald verfügbare Mahlzeit ankündigt. Untersuchungen zeigen, dass Kreditkarten sekundäre Verstärkerqualitäten haben, weil sie den Konsum von angenehm bewerteten Dingen ermöglichen (Feinberg, 1986). Wenn sich allerdings an sekundäre Verstärker nicht zumindest manchmal ein primärer Verstärker anschließt, verlieren erstere ihre Verstärkerqualität.

1.2.5 Verstärkerpläne

Wird jedes erwünschte Verhalten verstärkt, spricht man von einer kontinuierlichen Verstärkung. In der Lernpraxis kommt das aber selten vor, sodass sich alternative Verstärkerpläne als ebenso wirksam oder noch effizienter erwiesen haben (s. Abbildung 18): Bei intermittierender Verstärkung wird nicht jede Reaktion verstärkt. Dabei ist zwischen einem Quotenplan oder Verhältnisplan und einem Intervallplan zu unterscheiden. Beim Verhältnisplan wird nur eine bestimmte Anzahl von Operanten verstärkt, z. B. jede fünfte Reaktion, beim Intervallplan erfolgt die Verstärkung nach einem vorgegebenen Zeitintervall, z. B. wird der erste Operant verstärkt, der nach einem Intervall von drei Minuten auftritt. Innerhalb der Verhältnis- und Intervallpläne ist noch zwischen fixen und variablen Plänen zu differenzieren. Bei den fixen Plänen findet eine völlig regelmäßige Verstärkung statt, also z. B. genau jeder fünfte Operant oder die erste Reaktion nach genau fünf Minuten, während bei den variablen Plänen im Durchschnitt jeder fünfte Operant oder die erste Reaktion nach einem durchschnittlichen Zeitintervall von fünf Minuten verstärkt wird.


Abbildung 18: Verstärkerpläne.

Wie wirken sich diese Pläne auf den Lernerfolg aus? Generell wird bei intermittierender Verstärkung langsamer gelernt als bei kontinuierlicher (je seltener und unregelmäßiger verstärkt wird, desto langsamer erfolgt das Lernen). Dafür ist auch die Extinktionsresistenz größer als bei kontinuierlicher Verstärkung (je seltener und unregelmäßiger die Verstärkung erfolgt, desto langsamer verläuft die Extinktion). Im Vergleich zur kontinuierlichen Verstärkung führt ein Quotenplan zu einer höheren Verhaltenshäufigkeit, das erwünschte Verhalten wird häufiger ausgeführt, weil die Verstärkung direkt von der Anzahl der Operanten abhängt. Demgegenüber führen Intervallpläne im Vergleich zur kontinuierlichen Verstärkung zu einer geringeren Verhaltenshäufigkeit, weil hier nicht die Anzahl der Operanten entscheidend ist, sondern das Zeitintervall. Das führt dazu, dass die Verhaltenshäufigkeit unmittelbar nach der Verstärkung gering ist und dann wieder am Ende des Intervalls ansteigt (s. Abbildung 19).

Für die Lern- und Erziehungspraxis bedeuten die Ergebnisse zu den Verstärkerplänen:

Bei erwünschten Verhaltensweisen ist also die Verwendung intermittierender Verstärkung zu empfehlen. Bei unerwünschten Verhaltensweisen ist unbedingt davon abzuraten. […] Vielfach geschieht jedoch der Fehler, dass das unerwünschte Verhalten doch gelegentlich durch „gutes Zureden“ oder eine andere Form der Zuwendung belohnt wird. Das ist aber nichts anderes als intermittierende Verstärkung. Die Folgen kennen wir: Das unerwünschte Verhalten verschwindet nicht, sondern wird ganz im Gegenteil sehr dauerhaft. (Herkner, 1992, S. 166)


Abbildung 19: Der Zusammenhang zwischen Verstärkerplänen und der Verhaltenshäufigkeit (modifiziert nach Gazzaniga & Heatherton, 2003). Anmerkung: Ratio steht für Quotenplan, interval für Intervallplan, fixed für einen konstanten Plan; die Querstriche zeigen an, wann eine Verstärkung gegeben wird. Beim konstanten Intervallplan kommt es nach dem Erhalt des Verstärkers zu einem Absinken des Verhaltens.

Die Häufigkeit eines Verhaltens hängt nicht nur davon ab, wie sehr es verstärkt wird, sondern auch davon, wie sehr alternative Verhaltensweisen verstärkt werden. Das Gesetz des relativen Effekts (Herrnstein, 1970) drückt diesen Sachverhalt aus: Es kommt nicht auf die absolute Qualität und Menge einer Belohnung an, sondern auf die relative im Vergleich zu anderen Verhaltenskonsequenzen. Eine große Belohnung kann wirkungslos bleiben, wenn für andere Verhaltensweisen noch größere Belohnungen gegeben werden.

Leo Paul Crespi (1916–2008) wies nach, dass sich eine Änderung in der Belohnung auf die Ausführung des Verhaltens auswirkt (Crespi, 1942). In seinem Versuch erhielten Ratten entweder 1, 16 oder 256 Futterpillen als Belohnung. Die Ratten mit der höchsten Belohnung lernten den Weg durch ein Labyrinth schneller und bewegten sich schneller auf das Ziel zu (s. Abbildung 20, linker Teil). In einer zweiten Phase erhielten alle Ratten 16 Futterpillen. Die Gruppe, die jetzt eine deutlich niedrigere Belohnung für ihr Verhalten bekam, verringerte ihre Laufgeschwindigkeit (s. Abbildung 20, rechter Teil). Die Belohnung war im Vergleich zur Ausgangsbelohnung zum Strafreiz geworden. Die Gruppe mit der deutlich höheren Belohnung erhöhte hingegen ihre Laufgeschwindigkeit. Offensichtlich spielen hier implizite Erwartungen in Bezug auf die Höhe der Belohnung eine Rolle (das Futter stellt für die Tiere einen Anreiz dar).

 

Abbildung 20: Laufgeschwindigkeit in Abhängigkeit von der Höhe der Belohnung (modifiziert nach Crespi, 1942).

David Premack (1925–2015) hat gezeigt, dass nicht nur Reize, sondern auch Verhaltensweisen als Verstärker eingesetzt werden können (Premack, 1959; 1961). Die Trennung zwischen Verhalten und Reizen ist begrifflich zwar sauber möglich, tatsächlich ist jedes Verhalten aber auch von Reizkonstellationen begleitet (z. B. führt Essen dazu, dass dem Organismus Nahrung geboten wird, beim Laufen wird die Aktivität der eigenen Muskeln wahrgenommen usw.). Premack (1959; 1961) formuliert folgende als Premack-Prinzip bekannt gewordene Hypothese: Von zwei Verhaltensweisen, deren spontane Auftrittswahrscheinlichkeit verschieden ist, kann die häufigere Verhaltensweise als Verstärker für die weniger häufige Verhaltensweise fungieren. Registriert man bspw. bei einer Ratte im Labor, dass sie spontan 10 % der Zeit im Laufrad und 20 % der Zeit mit Trinken verbringt, kann man das Trinken als Verstärkung für das Laufen einsetzen. Wenn die Ratte erst dann Trinken darf, wenn sie im Laufrad war, erhöht sich die Wahrscheinlichkeit für das Laufen im Laufrad. Premack (1971) formulierte zusätzlich das Bestrafungsprinzip, wonach ein Verhalten, das mit geringerer Wahrscheinlichkeit auftritt, als Bestrafung des Verhaltens, das mit höherer Wahrscheinlichkeit auftritt, fungiert. Verlangt man bspw. von einer Ratte, dass sie erst dann trinken darf, wenn sie gelaufen ist (Mazur, 1975), wird die Zeitdauer des Laufens gegenüber der registrierten Basisrate des Verhaltens ansteigen (weil es durch das Trinken belohnt wird) und gleichzeitig die Zeitdauer des Trinkens zurückgehen (weil das Trinken durch die Anforderung des Laufens bestraft wird). Mit der Zeit verliert das Trinken damit seine Verstärkerqualität.

1.2.6 Die Konditionierung abergläubischen Verhaltens

Auch abergläubisches Verhalten kann lerntheoretisch erklärt werden (s. Hergovich, 2005). Die nachstehende Geschichte liefert ein schönes Beispiel für alltäglichen Aberglauben:

Der fünffache Wimbledon-Sieger Björn Borg stammt aus einer abergläubischen Familie. Während des Wimbledon-Finales 1979 gegen Roscoe Tanner lutschte seine Mutter Margarethe Bonbons. Als Borg drei Matchbälle gegen Tanner hatte, dachte sie, dass der Zeitpunkt zum Jubeln gekommen sei, und spuckte das Bonbon, das sie gerade im Mund hatte, aus. Nachdem Tanner alle drei Matchbälle abgewehrt und den Einstand in diesem Game erreicht hatte, fühlte sie, dass sie einen Fehler gemacht hatte. Sie hob das Bonbon vom Boden auf und nahm es wieder in den Mund. Kurz danach gewann ihr Sohn zum dritten Mal das Finale (Vyse, 1997).

Diese Geschichte beschreibt eine typische abergläubische Handlung. Offensichtlich hat die Mutter eine Verbindung zwischen dem Lutschen des Bonbons und Borgs erfolgreichem Spiel hergestellt. Jeder von uns kennt solche abergläubischen Handlungen: Ein Student zieht sich jedesmal vor einer schwierigen Prüfung dasselbe T-Shirt an, ein Sportler rasiert sich vor einem Wettkampf nicht oder vollzieht ein bestimmtes, an Zwangsverhalten erinnerndes Ritual.

In einer Reihe von Arbeiten konnte nachgewiesen werden, dass abergläubisches Verhalten durch Konditionierung erzeugt werden kann. Skinner (1948) setzte hungrige Tauben in einen kleinen Käfig. Die Futtergabe war nach einem fixen Intervallplan eingestellt, sodass die Taube alle 15 Sekunden für fünf Sekunden Zugang zum Futter erhielt. Obwohl sich die Tauben anfangs ganz ruhig und unauffällig verhalten hatten, entwickelte jede Taube nach ein paar Minuten ein auffälliges Ritual. Eine Taube ging fortwährend im Kreis, um sich nach der Verstärkung zweioder dreimal um die eigene Achse zu drehen. Eine weitere Taube hob ruckartig ihren Kopf in Richtung einer Käfigecke, andere wiederum bewegten ihren Kopf permanent auf und ab, als würden sie einen imaginären Ball köpfeln. Nach Skinner lassen sich diese Spielarten „seltsamen“ Verhaltens allein durch zeitliche Kontiguität erklären. Egal, welches Verhalten die Tauben zufällig während der ersten Futtergabe ausgeführt hatten, sie behielten es bei.

Die Bezeichnung „abergläubisches Verhalten“ mag zwar für Tauben fragwürdig erscheinen, aber bei Menschen konnte auf die gleiche Weise abergläubisches Verhalten konditioniert werden. Wagner und Morris (1987) untersuchten 3-bis 6-jährige Vorschulkinder. Am Beginn des Experiments durfte sich jedes Kind ein Spielzeug aussuchen. Dann wurden die Kinder in den Testraum geführt. In diesem Zimmer, das durch einen Einwegspiegel einzusehen war, befand sich an einer Wand eine Clownpuppe namens Bobo und ein Plastikhalter. Den Kindern wurde mitgeteilt, dass Bobo von Zeit zu Zeit Murmeln ausgeben würde und sie die Murmeln in den Plastikhalter geben sollten. Wenn die Kinder genug Murmeln gesammelt hätten, würden sie das gewählte Spielzeug erhalten (am Ende erhielten alle Kinder das Spielzeug, was sie aber nicht wussten). Bobo war so eingestellt, dass er nach einem fixen Intervallplan Murmeln aus dem Mund warf, unabhängig davon, was das Kind tat. Für manche Kinder war der Intervallplan so festgelegt, dass Bobo alle 15 Sekunden Murmeln hergab, andere mussten 30 Sekunden warten. Jedes Kind wurde an sechs aufeinanderfolgenden Tagen für die Dauer von acht Minuten beobachtet. Genauso wie Skinners Tauben entwickelten die meisten Kinder (75 %) individuelles abergläubisches Verhalten. Manche Kinder standen vor Bobo und schnitten Grimassen, andere berührten sein Gesicht oder seine Nase, wieder andere schaukelten mit den Hüften. Ein Mädchen lächelte Bobo zu und ein anderes küsste ihn auf die Nase. Die Kinder behielten ihr ideografisches Verhalten auch über mehrere Sitzungen hinweg bei.

In einem ähnlichen Experiment bei Erwachsenen wurden japanische Studenten in einen Versuchsraum geführt (Ono, 1987). In diesem Raum stand an einer Wand ein Tisch mit einem Sessel. Auf dem Tisch waren drei Kästchen montiert, die mit Hebeln versehen waren. Darüber befand sich an der Wand ein Lichtsignal und ein Zähler (s. Abbildung 21). Den Studenten wurde gesagt, dass sie nichts Spezielles tun müssten, sie sollten nur danach trachten, möglichst viele Punkte zu bekommen. Die Punktevergabe war wieder unabhängig vom Verhalten durch Intervallpläne (für eine Gruppe fix, für eine andere variabel) geregelt. Alle Studenten wurden durch den Einwegspiegel beobachtet, zusätzlich wurde jede Hebelbetätigung elektronisch registriert. Eine Sitzung dauerte 40 Minuten. Auch bei dieser Stichprobe von erwachsenen Vpn trat bei den meisten schnell abergläubisches ritualisiertes Verhalten auf. Dabei behielten manche ihre Verhaltensweisen die ganze Sitzung über bei. Andere Verhaltensweisen traten zeitweilig auf, um dann wieder zu verschwinden. Ein Student zog z. B. rasch hintereinander an einem Hebel, um ihn dann einige Sekunden zu halten, bevor er zum nächsten Hebel wechselte und die Sequenz wiederholte. Dieses Verhalten behielt er über 30 Minuten lang bei. Die meisten Handlungen bezogen die Hebel mit ein, wenige handelten so eigentümlich wie jene Studentin, deren Verhalten Ono (1987) kurz schildert:

About 5 minutes into the session, a point delivery occured after she had stopped pulling the lever temporarily and had put her right hand on the lever frame. This behavior was followed by a point delivery, after which she climbed on the table and put her right hand to the counter. Just as she did so, another point was delivered. Thereafter she began to touch many things in turn, such as the signal light, the screen, a nail on the screen, and the wall. About 10 minutes later, a point was delivered just as she jumped to the floor, and touching was replaced by jumping. After five jumps, a point was delivered when she jumped and touched the ceiling with her slipper in her hand. Jumping to touch the ceiling continued repeatedly and was followed by points until she stopped about 25 minutes into the session, perhaps because of fatigue. (Ono, 1987, S. 265)


Abbildung 21: Versuchsaufbau bei Ono (1987).

In einer Reihe von Experimenten konnte gezeigt werden, dass auch ganze Handlungssequenzen konditioniert werden können (Catania & Cutts, 1963; Vyse, 1991). In dem Experiment von Vyse (1991) nahmen Studenten an einem Computerspiel teil. Auf dem Bildschirm sahen sie eine 5 × 5-Matrix und einen Kreis im linken oberen Eck, den die Studenten durch Betätigung zweier Tasten bewegen konnten. Ein Druck auf die eine Taste bewegte den Kreis eine Spalte nach rechts, wurde auf die andere Taste gedrückt, bewegte er sich eine Zeile nach unten. Die Aufgabe bestand darin, so viele Punkte wie möglich zu erreichen. Punkte konnte man gewinnen, indem der Kreis durch die Betätigung der Tasten ins rechte untere Eck gesteuert wurde. In einer Bedingung erhielten die Studenten nur dann Punkte, wenn sie zunächst zweimal den Kreis nach unten bewegten. Jeder mögliche Weg, der ab der zweiten Spalte unterhalb der zweiten Zeile verlief, wurde mit Punkten belohnt. Obwohl diese Aufgabe nicht ganz leicht war, konnte sie von den meisten Studenten nach einigen Durchgängen gelöst werden. Dabei ereignete sich nichts Auffälliges. Wurde hingegen ein Unsicherheitsfaktor eingeführt, indem die Punkte z. B. nur mehr bei der Hälfte der richtigen Lösungen vergeben wurden, dann entstand bei manchen Studenten wieder abergläubisches Verhalten. Manche dachten, dass bestimmte Felder unbedingt erreicht werden müssten, andere meinten, bestimmte Felder müssten unbedingt vermieden werden. Ein Student glaubte, dass man die Tasten nur sehr langsam drücken dürfe. Zum Teil wurden noch kompliziertere Theorien geäußert.