Deutsche Sprachgeschichte

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

2. Sprachwandel verstehen und untersuchen

Dieses Kapitel stellt zunächst zentrale Begriffe und Konzepte der Linguistik vor, um anschließend drei wichtige methodische Herangehensweisen der (historischen) Sprachwissenschaft einzuführen: die komparative Methode, Korpuslinguistik sowie Fragebogenstudien und Experimente. Wer bereits über solides linguistisches Grundwissen verfügt, kann Kapitel 2.1.1 getrost überspringen.

2.1 Sprachwandel verstehen
2.1.1 Untersuchungsebenen

In der Beschäftigung mit Sprache unterscheidet man traditionell verschiedene Betrachtungsebenen, die sich mit Nübling et al. (2013) auch als „Schichten“ interpretieren lassen: Phonologie, Morphologie und Syntax bilden in diesem Modell gleichsam den Kern der Sprache. In den äußeren Schichten sind Semantik, Lexik und Pragmatik angesiedelt. All diese Begriffe können sowohl eine Teildisziplin der Linguistik als auch ihren Forschungsgegenstand bezeichnen: So kann man von der Semantik, also der Bedeutung, eines Wortes sprechen, aber auch von Semantik als linguistischer Disziplin, die sich mit der Untersuchung von Bedeutung befasst. Ähnlich kann man von der Phonologie einer Sprache, etwa des Deutschen, sprechen oder auch von Phonologie als linguistischer Teildisziplin.


Fig. 1: Überblick über die verschiedenen Untersuchungsebenen.

Gegenstand der PhonologiePhonologie (Kap. 4) sind Phoneme, also die kleinsten bedeutungsunterscheidenden Einheiten in einer Sprache (s. auch Infobox 1). Die Phonologie ist nicht zu verwechseln mit der PhonetikPhonetik, die sich mit den konkreten lautlichen Realisierungen von Phonemen, den sogenannten Phonen (Singular: Phon), befasst.

Die MorphologieMorphologie (Kap. 5) befasst sich mit den kleinsten bedeutungstragenden Einheiten einer Sprache, den sogenannten Morphemen. Der Unterschied zwischen Phonem und Morphem lässt sich an den Beispielen Haus und Maus aufzeigen: Beide unterscheiden sich in nur einem Phonem, /h/ vs. /m/. /h/ und /m/ sind daher bedeutungsunterscheidend, ohne jedoch selbst Bedeutung zu tragen. Die Wörter Haus und Maus hingegen tragen Bedeutung. So lässt sich die Frage: „Was bedeutet Maus?“ beantworten mit: „Das Wort Maus bezeichnet ein Nagetier.“, während die Frage „Was bedeutet /h/?“ keinen Sinn ergibt.

Haus und Maus sind also Morpheme. Doch nicht jedes Morphem ist ein eigenständiges Wort. Beispielsweise ist auch das -en in Frauen eine bedeutungstragende Einheit: Es bringt die grammatische Information ‚Plural‘ zum Ausdruck. Dieses Beispiel zeigt auch, dass Wörter oft aus mehr als einem Morphem bestehen. Frauen besteht aus zweien, dem Stamm Frau und dem Pluralmarker -en. Während Haus frei vorkommen kann, ist dies beim Pluralmarker nicht der Fall: *Heute habe ich viele -en gesammelt.

Den Bereich der Morphologie kann man unterteilen in WortbildungWortbildung und FlexionFlexion. Mit Flexionsmustern, die grammatische Informationen wie Tempus (Zeit) oder Numerus (Anzahl) kodieren, werden unterschiedliche Formen desselben Wortes gebildet, z.B. ich lache (Präsens) – ich lachte (Präteritum), die Frau (Singular) – die Frauen (Plural). Durch Wortbildung indes entstehen neue Wörter, etwa durch Komposition (Donau + Dampf + SchiffDonaudampfschiff) oder durch Derivation, z.B. mit Suffixen wie -ung: befragen – Befragung.

Die SyntaxSyntax (Kap. 6) schließlich befasst sich mit der Frage, nach welchen Prinzipien Wörter zu Phrasen und Sätzen kombiniert werden. Die Wortstellung ist dabei keineswegs willkürlich.1 Vielmehr erfüllt auch sie oft genug eine ganz konkrete Funktion. So unterscheidet sich die Wortstellung im Deutschen zwischen Aussage- und Fragesatz:


(1) IchSUBJ treffe meine TanteOBJ.
(2) TriffstV duSUBJ auch deinen OnkelOBJ?

Damit kommen wir zu jenen Untersuchungsebenen, die zwar oft nicht der „Kernlinguistik“ zugerechnet werden, aber nicht minder bedeutsam sind: Lexik, Semantik und Pragmatik. Die LexikLexik (Kap. 7) bezeichnet den Wortschatz einer Sprache, der ebenfalls einer diachronen Dynamik unterliegt – so kann er etwa durch EntlehnungEntlehnung erweitert werden, während andere Wörter außer Gebrauch kommen. Beispielsweise gehört saelde, im Mittelhochdeutschen noch ein geläufiger Begriff, dessen Bedeutung sich mit ‚Güte, Segen, Glück‘ umschreiben lässt, nicht mehr zum neuhochdeutschen Wortschatz, während wir im Mittelhochdeutschen ein Wort wie W-LAN-Router vergeblich suchen. SemantikSemantik (ebenfalls Kap. 7) befasst sich mit der Bedeutung von Wörtern und Konstruktionen. Dabei ist, wie Kap. 7.1 zeigen wird, sehr umstritten, was genau unter Bedeutung zu verstehen ist und wie weit der Bedeutungsbegriff gefasst werden kann: Können wir beispielsweise sagen, dass ein Suffix wie -heit in Freiheit eine Bedeutung hat? Manche neueren Ansätze gerade in der Konstruktionsgrammatik (vgl. z.B. Kap. 6.2.3 und 8.2.2) vertreten dabei einen sehr weiten Bedeutungsbegriff, nach dem beispielsweise auch syntaktische Muster Bedeutung tragen können.

Die Pragmatik (Kap. 8) schließlich befasst sich mit sprachlichem Handeln. Dazu gehören z.B. Aspekte, die über die wörtliche Bedeutung einer Äußerung hinausgehen. Beispielsweise kann mit einer Aussage wie Es zieht eine indirekte Aufforderung vermittelt werden: ‚Bitte schließe das Fenster!‘ Es handelt sich um einen sog. indirekten Sprechakt. Auch andere Aspekte der konkreten Sprachverwendung, etwa die Verknüpfung von Äußerungen mit positiven oder negativen Einstellungen (vgl. das Zeitliche segnen vs. abnippeln) oder auch mit Kontextfaktoren (vgl. Sehr geehrte Frau Prof. Meier vs. Yo bro!), gehören in den Bereich der Pragmatik. Die Grenzen zwischen Semantik und Pragmatik sind dabei oft fließend. So lässt sich darüber streiten, ob das Wort Pferd und sein pejoratives (abwertendes) Pendant Gaul die gleiche Bedeutung haben, weil sie beide auf ein Tier der biologisch Equus genannten Gattung referieren und sich nur pragmatisch unterscheiden, oder ob der pejorative Gehalt als Teil der Semantik des Wortes gesehen werden muss.

Die GraphematikGraphematik (Kap. 9) befasst sich mit der Verschriftung von Sprache. Dabei gilt es im Blick zu behalten, dass Schrift gegenüber der Sprache sekundär ist – Sprache(n) gibt es schon viel länger als Schrift, und bis heute können viele Menschen nicht lesen und schreiben, aber alle normal entwickelten Menschen beherrschen eine Sprache. Das hat dazu geführt, dass die Graphematik in der Linguistik lange Zeit ein Schattendasein geführt hat und teilweise immer noch führt. In der germanistischen Linguistik hat sich jedoch ein ausgeprägtes Interesse am Verhältnis von Sprache und Schrift entwickelt. Die Graphematik ist auch insofern ein sehr vielversprechender Forschungszweig, als man davon ausgehen kann, dass in einer alphabetisierten Gesellschaft, in der zudem Schrift quasi omnipräsent ist, unser sprachliches Wissen auch sehr stark durch die Verschriftung von Sprache geprägt ist.

2.1.2 Wie verändern wir Sprache? Zur Theorie des Sprachwandels

Holistische und modularistische Ansätze

Dass Sprache sich wandelt, ist eine Tatsache, die kaum ernsthaft in Frage gestellt werden kann. Wie Sprache sich wandelt und warum, ist jedoch umstritten. An dieser Stelle kann nur ein sehr knapper Überblick über verschiedene Ansätze gegeben werden, auch weil sich dieses Buch nur indirekt mit Sprachwandeltheorie beschäftigt – im Mittelpunkt stehen vielmehr Methoden, mit deren Hilfe sich Sprachwandel empirisch untersuchen lässt. Die empirischen Ergebnisse können dann wiederum theoretische Erklärungsansätze untermauern oder in Frage stellen.

Die Antwort auf die Frage, wie und warum Sprachen sich verändern, hängt stark von der Konzeption ab, die man von Sprache hat. Stark vereinfachend kann man zwei sehr unterschiedliche Auffassungen von Sprache unterscheiden, auch wenn es in beiden „Lagern“ sehr viel Variation gibt und die Grenzen zwischen den unterschiedlichen Richtungen sehr viel unschärfer sind, als ich sie hier darstelle. Eine modularistischeModularismus Sprachauffassung, wie sie insbesondere die generative Grammatik vertritt1, sieht Sprache als eigenständige Komponente der Kognition. Sie nimmt an, dass es bestimmte Gehirnareale gibt, die spezifisch für Sprachverarbeitung zuständig sind. Das „Sprachmodul“ ist dabei zwar in einigen Varianten der Theorie über Schnittstellen mit anderen kognitiven Modulen verbunden, aber prinzipiell von diesen unabhängig. Die Sprachfähigkeit gilt in diesem Ansatz als angeborene Fähigkeit: Eine Sprache muss zwar erworben werden, doch die kognitiven Voraussetzungen dafür sind biologisch verankert. Ein (umstrittenes) Hauptargument dafür lautet, dass Kinder eigentlich gar nicht genug Input bekämen, um eine Sprache vollständig erwerben zu können (poverty of stimulus). Insbesondere erhielten sie kaum negatives Feedback z.B. durch Fehlerkorrektur. Daher müsse es angeborene Grundlagen der Sprachfähigkeit geben. Zu diesen kognitiven Grundlagen zählt eine Universalgrammatik, also ein Regelinventar, das allen Sprachen zugrundeliegt. Folgerichtig ist das eigentliche Erkenntnisinteresse der Sprachwissenschaft aus generativer Sicht auch nicht die Beschreibung sprachlicher Oberflächenstrukturen, sondern vielmehr eben dieser Universalgrammatik. Das heißt aber nicht, dass die generative Linguistik per se nicht an sprachlicher Diversität und Variation interessiert wäre (auch wenn man ihr das manchmal vorwirft). Im Fokus steht jedoch die Frage, wie sich die Heterogenität menschlicher Sprachen aus einem als homogen angenommenen Regelinventar ergibt.

 

Der Fokus auf die angeborene Sprachfähigkeit im allgemeinen und auf die Universalgrammatik im besonderen bringt für die generative Linguistik Herausforderungen mit sich, wenn es um die Erklärung von Sprachwandel geht, da die Universalgrammatik ja eine relativ statische Größe sein muss. Aus diesem Grund wird in solchen Ansätzen gerade dem Spracherwerb eine zentrale Rolle zugeschrieben. Im Principles-and-Parameters-Ansatz der generativen Grammatik geht man davon aus, dass die Universalgrammatik aus invariablen Prinzipien besteht, die allerdings unterschiedlich realisiert werden können. Diese unterschiedliche Realisierung geschieht über Parametersetzung. Im Spracherwerb setzt das Kind die Parameter entsprechend seiner Muttersprache, wobei jedoch die Möglichkeit (meist geringfügiger) Abweichungen besteht (vgl. z.B. Boeckx 2006, Roberts & Roussou 2003).

Im diametralen Gegensatz dazu steht die holistischeHolismus Sprachauffassung, die beispielsweise in der sog. Kognitiven Linguistik, in funktionalistischen Ansätzen und in den meisten Spielarten der Konstruktionsgrammatik vertreten wird.2 Ziem (2008: 103) weist darauf hin, dass sich der Begriff Holismus nur in der deutschsprachigen Literatur findet, in der internationalen Literatur spricht man meist von einem integralen (integral) oder einheitlichen (unitary, uniform) Modell. Spivey (2007) nutzt Kontinuität (continuity) als Gegenbegriff zu Modularität.3 Gemeint ist jeweils, dass es keine strenge Aufteilung der „Zuständigkeiten“ in der menschlichen Kognition gibt. Somit bildet auch Sprache nach dieser Auffassung kein eigenständiges kognitives Modul, sondern ist vielmehr eng mit anderen Bereichen der Kognition verwoben. In einer etwas überzeichneten Metapher könnte man sagen, dass die „Arbeitsteilung“ im menschlichen Geist hier einer Fußballmannschaft entspricht, die kein Spiel gewinnen könnte, wenn nicht die Stürmer auch ab und zu Abwehr spielen würden und umgekehrt. Im modularistischen Modell funktioniert Kogniton hingegen eher wie eine Behörde, in der jede Abteilung ihre eigenen Zuständigkeiten hat und es tunlichst vermeidet, sich in die Geschäfte der anderen Abteilungen einzumischen.

Die holistische Sprachauffassung lehnt die Annahme einer angeborenen Sprachfähigkeit ab und hält das poverty of stimulus-Argument für nicht überzeugend. Sie geht davon aus, dass Sprache „statistisch“ erworben wird – unbewusst führen wir quasi Buch über die Wörter und Konstruktionen, die uns begegnen, und wissen daher sehr genau, was in welchem Kontext die richtige Wahl ist. Zum Beispiel merken wir mit der Zeit, dass Sprecherinnen und Sprecher immer ging sagen, wo man sonst vielleicht *gehte erwarten würde, wenn man die regelmäßige Vergangenheitsform des Deutschen kennt. Das poverty of stimulus-Argument, so die holistische Sicht, unterschätzt diese Fähigkeiten drastisch (vgl. z.B. Tomasello 2003, Goldberg 2011).

Weil holistische Ansätze Sprache als hochgradig dynamisch betrachten, ist der Spracherwerb aus dieser Sicht nicht der vorrangige Ort des Sprachwandels. Das ist vielmehr der Sprachgebrauch: Jede einzelne Äußerung, die getätigt wird, kann prinzipiell zu einer Rekonfiguration unseres sprachlichen Wissens führen.

Die gerade in letzter Zeit wieder äußerst polemisch geführten Debatten zwischen Anhängern der beiden hier vorgestellten Richtungen zeigen, dass das letzte Wort noch nicht gesprochen ist (vgl. z.B. Evans 2014, Adger 2015). Das vorliegende Buch verortet sich im holistischen Ansatz, wenngleich die meisten Beobachtungen und Fallstudien, die in den folgenden Kapiteln dargelegt werden, „theorieneutral“ sind und sich durchaus auch für unterschiedliche Interpretationen aus diversen theoretischen Perspektiven anbieten.

Individuum und Population

Obwohl die beiden Auffassungen von Sprache und Kognition unterschiedlicher kaum sein könnten, haben sie doch eines gemeinsam, nämlich den Fokus auf das individuelle sprachliche Wissen. Die generative Linguistik stellt die sprachliche Kompetenz oder auch I(nterne)-Sprache in den Vordergrund und sieht die Performanz oder auch E(xternalisierte)-Sprache als sekundär. Unter den holistischen Ansätzen verfolgt gerade die Konstruktionsgrammatik explizit das Ziel, sprachliches Wissen zu modellieren. In der generativen Linguistik geht man von einem „idealen Sprecher-Hörer“ aus, der quasi stellvertretend für die „durchschnittliche“ Sprachbenutzerin steht. In holistischen Ansätzen tut man das in gewisser Weise auch, wenngleich man sich bewusst ist, dass es zwischen dem sprachlichen Wissen unterschiedlicher Personen recht drastische Unterschiede geben kann: „Different speakers, different grammars.“ (Dąbrowska 2012). In jüngerer Zeit ist jedoch die Frage nach dem Verhältnis zwischen individuellem und kollektivem Sprachwissen wieder stärker in den Vordergrund gerückt. So unterscheiden z.B. Traugott & Trousdale (2013) zwischen dem sprachlichen Wissen eines Individuums und dem sprachlichen Wissen einer Population von Sprecherinnen und Sprechern. Beide Aspekte sind eng miteinander verwoben: Überindividuelles sprachliches Wissen kann nur als Abstraktion über individuelles sprachliches Wissen existieren, quasi als Schnittmenge des Wissens vieler Einzelpersonen. Deshalb kann es auch so etwas wie „die (deutsche) Sprache“ oder „die Grammatik“ nur bedingt geben. Aus dieser Perspektive ist Sprache ein komplexes adaptives Systemkomplexes adaptives System, Sprache als (vgl. z.B. Steels 2000, Beckner et al. 2009, Kirby 2012). Damit ist ein System gemeint, das

1 aus verschiedenen „Akteuren“ besteht, die miteinander interagieren. Das ist bei Sprache trivialerweise der Fall – ich kann zwar auch mit mir selbst reden, aber eine Sprache lernen könnte ich alleine nicht;

2 adaptiv ist, d.h. Sprecherinnen und Sprecher passen ihr sprachliches Verhalten immer wieder auf Grundlage ihrer Erfahrungen an. Wenn ich zum Beispiel merke, dass alle in meinem Umfeld Kirche wie „Kürche“ und Gehirn wie „Gehürn“ aussprechen, passe ich meine eigene Aussprache früher oder später möglicherweise auch an. Und wenn ich merke, dass mich in Norddeutschland niemand versteht, wenn ich nachdem kausal, also begründend, verwende (Nachdem wir nächste Woche essen gehen wollen, müssen wir bald einen Tisch reservieren), weiche ich vielleicht in Zukunft auf eine dort üblichere Form wie weil oder da aus;

3 sich aus sprachlichen Verhaltensmustern ergibt, die ihrerseits Resultat eines komplexen Zusammenwirkens unterschiedlichster Faktoren sind: So spielen die biologischen Voraussetzungen sprachlicher Artikulation ebenso eine Rolle für die Entwicklung des Systems wie kognitive und kulturelle Faktoren.

Sprachwandel ist in aller Regel ein unbeabsichtigtes „Nebenprodukt“ sprachlichen Handelns. Keller ([1990] 2014) hat zur Veranschaulichung dieses Phänomens die Metapher der „unsichtbaren HandInvisible-hand-TheorieUnsichtbare HandUnsichtbare Hand“ aus den Wirtschaftswissenschaften entlehnt, die er mit dem berühmt gewordenen Beispiel des Trampelpfads erklärt: Dieser entsteht nicht absichtlich, sondern als unabsichtliches Nebenprodukt des Handelns vieler Individuen, die ein ähnliches Ziel verfolgen – nämlich eine Abkürzung zu nehmen. Wie durch eine unsichtbare Hand entsteht so mit der Zeit ein Pfad, der womöglich gar den Eindruck erweckt, bewusst und planvoll angelegt zu sein – „design without a designer“ quasi (Cornish 2010).

Kellers Invisible-hand-Theorie hat viel mit der Charakterisierung von Sprache als komplexes adaptives System gemeinsam, die zusätzlich den Fokus auf die Heterogenität der Faktoren legt, die dabei involviert sein können. Sprachwandel vollzieht sich immer an der Schnittstelle von Gesellschaft, Kultur und Kognition (vgl. auch Bybee 2010). Wenn wir in der Sprachgeschichtsschreibung über die rein beschreibende Perspektive hinausgehen und Sprachwandelprozesse zu erklären versuchen, gilt es dieses Geflecht im Blick zu behalten. Und gerade weil die einzelnen Faktoren und ihre Interaktion so komplex sind, ist die Sprachgeschichte, sei es des Deutschen oder auch anderer Sprachen, noch lange nicht „ausgeforscht“. Für die zukünftige Forschung tun sich hier spannende Fragen auf, die bisher erst im Ansatz behandelt wurden, zum Beispiel: Wer verändert eigentlich Sprache? Einerseits kann die Antwort darauf nur lauten: Wir alle, denn Sprache ist hochdemokratisch – andererseits hängt die Akzeptanz einer Innovation, die ich als Sprecherin in die Welt setze, von vielen verschiedenen Faktoren ab, nicht zuletzt auch von der Größe des Personenkreises, den ich damit erreiche, und von meiner eigenen Stellung im Kreis der Adressaten. Eine weitere interessante Frage könnte lauten: Wie wahrnehmbar sind Sprachwandelprozesse, und welche Faktoren steuern ihre Wahrnehmbarkeit? Einige Wandelprozesse, etwa der vermeintliche „Tod“ des Genitivs oder der angeblich übermäßige Gebrauch von AnglizismenAnglizismen, werden von Laien lautstark kommentiert (und beklagt), andere, wie etwa das Aufkommen des oben erwähnten kausalen nachdem, scheinen eher unbemerkt vonstatten zu gehen. Der Katalog offener Fragen ließe sich mühelos fortsetzen.

Um solche Fragestellungen wissenschaftlich fundiert angehen zu können, benötigen wir, sozusagen als Werkzeugkasten, ein Repertoire an Methoden, das selbstverständlich auch keine abgeschlossene Menge bildet, sondern immer wieder mit neuen Ansätzen erweitert werden kann. In den nächsten Abschnitten werden wir einige der wichtigsten Methoden, mit denen in der Sprachgeschichtsforschung gearbeitet wird, näher kennenlernen.

2.2 Untersuchungsmethoden

Dieses Buch will zum einen einen Überblick über die deutsche Sprachgeschichte geben, zum anderen Zugänge zu ihrer empirischen Untersuchung eröffnen. Es will Sie ermutigen, Sprachgeschichtsforschung wissenschaftlich zu betreiben. Ehe wir uns drei der wichtigsten Methodenfelder der historischen Sprachwissenschaft zuwenden, lohnt es sich daher, zunächst auf die wissenschaftliche Methodewissenschaftliche Methode näher einzugehen. Wenn heute von der „wissenschaftlichen Methode“ die Rede ist, dann ist damit zumeist der in Fig. 2 dargestellte Zyklus des wissenschaftlichen Erkenntnisgewinns gemeint. Dieser wiederum ist eng mit dem Prinzip des FalsifikationismusFalsifikationismus verbunden, das auf den Philosophen Karl Popper zurückgeht (vgl. z.B. Popper 1963). Maxwell & Delaney (2004: 13f.) illustrieren die Grundidee des Falsifikationismus, indem sie sie den Ideen des logischen Positivismus gegenüberstellen, der die Wissenschaft in der ersten Hälfte des 20. Jahrhunderts dominierte. Dieser folgt dem in (3) dargestellten Syllogismus der Bestätigung:


(3) Syllogismus der Bestätigung:
Annahme: Wenn meine Theorie wahr ist, folgen meine Daten dem vorausgesagten Muster.
Beobachtung: Die Daten folgen dem vorausgesagten Muster.
Schluss: Deshalb ist meine Theorie wahr.

Die Idee hinter diesem recht abstrakten Syllogismus lässt sich an einem einfachen Alltagsbeispiel illustrieren. Angenommen, ich wohne in einer WG und frage mich, wer im Badezimmer das Licht angelassen hat. Ich tippe auf meinen Mitbewohner, den angehenden Lehrer, zumal der ohnehin oft etwas verplant ist. Nun weiß ich, dass dieser Mitbewohner, wenn er nach Hause kommt, immer Kreide an den Fingern hat und deshalb dazu neigt, Kreideflecken zu hinterlassen. Mir fällt auf, dass am Lichtschalter ein kleiner Kreidefleck ist, der vorher noch nicht da war, und ich denke mir: Wusste ich’s doch!

 

Mein Schlussprozess folgt also dem Syllogismus der Bestätigung: Ich habe eine Theorie und überprüfe, ob die Daten mit meiner Theorie kompatibel sind. Dieses deduktive (ableitende) Verfahren ist sowohl für den logischen Positivismus als auch für den Falsifikationismus charakteristisch. Letzterer jedoch geht den dritten Schritt nicht mit – den nämlich, dass ich meine Theorie deshalb als wahr annehme.

Um bei unserem Beispiel zu bleiben: Der Kreidefleck mag verräterisch sein, aber er ist natürlich keine hinreichende Evidenz, dass der Lehrer tatsächlich der Schuldige ist. Erstens muss der Kreidefleck nicht von ihm stammen – er könnte auch von meiner Mitbewohnerin stammen, die beim Klettern Unmengen an Magnesiumcarbonat verwendet. Zweitens kann auch nach ihm jemand im Bad gewesen sein, ohne eine Spur am Lichtschalter zu hinterlassen. Theoretisch ist sogar denkbar, dass es einen Einbruch gab, von dem niemand etwas bemerkt hat, weil der Einbrecher unverrichteter Dinge wieder gegangen ist, als er merkte, dass hier Geisteswissenschaftler leben, bei denen nichts zu holen ist – nur das Licht im Bad hat er angelassen. Diese Theorie ist zwar etwas weit hergeholt, aber es kann doch nicht ganz ausgeschlossen werden, dass sie zutrifft. Das gleiche gilt für praktisch unendlich viele andere Theorien, die meine Beobachtungen erklären können. Deshalb geht Popper auch davon aus, dass es grundsätzlich nicht möglich ist, eine Theorie zu bestätigen. Hingegen ist es durchaus möglich, eine Theorie zurückzuweisen – mit dem Syllogismus der Falsifikation in (4).


(4)
Annahme: Wenn meine Theorie wahr ist, folgen meine Daten dem vorausgesagten Muster.
Beobachtung: Die Daten folgen dem vorausgesagten Muster nicht.
Schluss: Deshalb ist meine Theorie falsch.


Fig. 2: Der Zyklus des wissenschaftlichen Erkenntnisgewinns, modifiziert nach Stefanowitsch (im Ersch.).

Aus diesem Grund ist es in empirischen Studien heute üblich, Hypothesen nicht direkt zu überprüfen, sondern stattdessen NullhypothesenNullhypothese (H0) zu testen. Die Nullhypothese ist das logische Gegenteil zu meiner eigenen Hypothese, der sog. Alternativhypothese H1. Schauen wir uns ein sprachgeschichtliches Beispiel dazu an. Das Adverb bisschen geht auf das Substantiv Bissen zurück, wie in ein Bissen Brot. Es hat sich von einem Wort mit sehr konkreter Bedeutung zu einem Wort mit eher abstrakter, quantifizierender Bedeutung gewandelt. Heute kann ich nicht nur einen Bissen Lasagne essen oder mir im Sommer ein bisschen Eis gönnen, sondern auch ein bisschen müde sein oder ein bisschen spazieren gehen. Wenn es stimmt, dass bisschen graduell eine immer abstraktere Bedeutung angenommen hat, dann ist zu erwarten, dass es ursprünglich zunächst mit Substantiven auftritt, die etwas sehr Konkretes bezeichnen, womöglich sogar etwas Essbares, und dass es sich erst allmählich auf Adjektive und Verben ausdehnt. In diesem Fall wäre die H1 also: bisschen tritt im Laufe der Zeit immer häufiger mit Wörtern auf, die nicht zur Wortart Substantiv gehören. Entsprechend lautet also die H0: bisschen tritt im Laufe der Zeit nicht häufiger mit Wörtern auf, die nicht zur Wortart Substantiv gehören.

Wenn nun eine empirische Studie mit Texten aus verschiedenen Zeitstufen belegt, dass bisschen in späteren Zeitstufen tatsächlich häufiger mit Adjektiven und Verben auftritt – und zwar so viel häufiger, dass es extrem unwahrscheinlich ist, dass eine solche Verteilung durch Zufall zustande kommt –, dann können wir zwar immer noch nicht völlig sicher sein, dass die Alternativhypothese zutrifft. Aber wir können mit großer Gewissheit die Nullhypothese zurückweisen – und dadurch unsere Alternativhypothese bestärkt sehen.

Das führt uns zu der Frage, was eigentlich eine wissenschaftliche HypotheseHypothese ist und welchen Kriterien sie genügen sollte. Bortz & Döring (2006: 4) definieren eine wissenschaftliche Hypothese wie folgt:

1 Eine wissenschaftliche Hypothese bezieht sich auf reale Sachverhalte, die empirisch untersuchbar sind.

2 Eine wissenschaftliche Hypothese ist eine allgemeingültige, über den Einzelfall oder ein singuläres Ereignis hinausgehende Behauptung („All-Satz“).

3 Einer wissenschaftlichen Hypothese muss zumindest implizit die Formalstruktur eines sinnvollen Konditionalsatzes („Wenn-dann-Satz“ bzw. „Je-desto-Satz“) zugrunde liegen.

4 Der Konditionalsatz muss potenziell falsifizierbar sein, d.h., es müssen Ereignisse denkbar sein, die dem Konditionalsatz widersprechen.

Denkpause

Welche der folgenden Annahmen können als wissenschaftliche Hypothesen gelten, welche nicht?

 Bayern trinken häufig Bier.

 Bayern trinken häufiger Bier als Schwaben.

 Mit zunehmendem Alter steigt das Risiko, bei einem Haushaltsunfall zu sterben.

 Wenn ein Kind ohne Sprache aufwächst, spricht es am Ende Vogonisch.

Eine Annahme wie Bayern trinken häufig Bier wäre nach den oben genannten Kriterien keine wissenschaftliche Hypothese, denn es wird nicht klar, was mit „häufig“ gemeint ist – deshalb ist die Aussage nicht nach klaren Kriterien falsifizierbar: „Falsifizierbarkeit setzt begriffliche Invarianz voraus“ (Bortz & Döring 2006: 5). Anders wäre es, wenn wir „häufig“ klar definieren, z.B. als „mindestens einmal am Tag eine Maß Bier“. Dann könnten wir daraus den Wenn-dann-Satz formulieren: „Wenn jemand Bayer ist, trinkt er mindestens einmal am Tag eine Maß Bier“ und könnten folgerichtig Daten von bayerischen und nicht-bayerischen Probanden erheben und vergleichen. Bayern trinken häufiger Bier als Schwaben ist eine wissenschaftliche Hypothese, denn hier haben wir ein klares Vergleichskriterium. Gleiches gilt für die dritte Hypothese, Mit zunehmendem Alter steigt das Risiko, bei einem Haushaltsunfall zu sterben. Diese Hypothese könnte man z.B. überprüfen, indem man Daten von tödlichen Haushaltsunfällen erhebt und die Altersverteilung der Todesopfer mit der Altersverteilung in der Gesamtbevölkerung vergleicht. Die vierte Hypothese ist ein schwierigerer Fall: Sie wäre potentiell falsifizierbar, allerdings müsste man dafür ein Kind ohne Sprache aufwachsen lassen. Aus offensichtlichen Gründen erachtet man ein solches Experiment heute als unethisch und überlässt es ägyptischen Pharaonen und mittelalterlichen Herrschern (vgl. Cohen 2013 für Beispiele). Ob es sich dennoch um eine wissenschaftliche Hypothese handelt, auch wenn sie nur in der Theorie falsifizierbar ist, darüber gibt es unterschiedliche Meinungen. Da man solche Fragestellungen heute prinzipiell auch ohne Versuche an echten Menschen z.B. über sog. agentenbasierte computationale Modellierung (agent-based modelling) indirekt angehen kann, spricht im Grunde nichts dagegen, die Hypothese zumindest formal als wissenschaftliche Hypothese durchgehen zu lassen – inhaltlich ist sie natürlich offensichtlich unsinnig.

Das führt uns zu der Frage, was eigentlich eine gute wissenschaftliche Hypothese ausmacht. Eine Hypothese speist sich meist aus einer Theorie, also einem Netzwerk an erklärenden Annahmen (vgl. Bartz & Döring 2006: 15). Bisweilen werden die Begriffe Theorie und Hypothese nahezu austauschbar gebraucht, allerdings ist die Unterscheidung zwischen einem übergreifenden Netzwerk an erklärenden Annahmen und einer konkreten, falsifizierbaren Einzelannahme nicht ganz unwichtig; darauf werden wir in einem Exkurs in Kap. 4.1.2 zurückkommen. Eine gute Theorie wiederum ist nach Hussy & Jain (2002: 278f.)

 logisch konsistent, also in sich widerspruchsfrei;

 gut überprüfbar bzw. falsifizierbar;

 einfach: sie sollte mit möglichst wenigen Annahmen möglichst viel erklären;

 allgemein: eine Theorie mit größerem Geltungsbereich ist einer Theorie mit geringerem Geltungsbereich vorzuziehen.

Eng mit dem Kriterium der Einfachheit verbunden ist das Prinzip, das als Occam’s razorOccam’s razor (deutsch auch manchmal: Ockhams RasiermesserOckhams RasiermesserOccam’s razor) bekannt ist und das häufig in der Formel zusammengefasst wird: Entia non sunt multiplicanda praeter necessitatem, also frei paraphrasiert: Die Zahl der Einheiten, die zur Erklärung eines Sachverhalts herangezogen werden, soll nicht ohne Not erhöht werden. Mit anderen Worten: Die einfachere Erklärung ist die bessere, wenn es nicht gute Gründe gibt, eine voraussetzungsreichere Erklärung zu wählen. Um auf das Beispiel mit dem Kreidefleck zu Beginn des Kapitels zurückzukommen: Die Hypothese, dass Einbrecher im Haus waren und nichts gestohlen, aber einen Fleck hinterlassen haben, macht eine Annahme, die zur Erklärung der Beobachtung nicht notwendig und daher nur gerechtfertigt ist, wenn sich herausstellt, dass die einfacheren Hypothesen zur Erklärung des Phänomens nicht ausreichen.