Qualitative Medienforschung

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

Das Vertrauen auf den innerwissenschaftlichen Diskurs

Die dritte Großstrategie, die Gültigkeit von Aussagen zu fundieren, besteht darin, die Perspektivenvielfalt der Berufsgruppe zu nutzen – also auf den innerwissenschaftlichen Diskurs zu setzen, man vertraut auf ihn. Man rechtfertigt dann das, was man als gültige Erkenntnis vorstellt, nicht mehr damit, dass auf Verfahren oder die eigene Hellsichtigkeit verwiesen wird, sondern man tritt bescheiden zurück und sagt: »Ich habe meine Erkenntnisse in den wissenschaftlichen Diskurs eingespeist. Dort wurden sie durch die Mühlen des wissenschaftlichen Diskurses gedreht. Zwar weiß man nicht genau, welche Mühlen dort mahlen oder welche Körner zerkleinert werden, aber die Erkenntnis X ist dabei rausgekommen, und weil sie den Diskurs überstanden hat und übrig geblieben ist, muss sie auch gültig sein.« Hier zeigt sich das in diesem Ansatz eingelassene Vertrauen auf die soziale Kraft einer Professionsgruppe und in die in ihr eingelassene Perspektivenvielfalt. Die Macht, Gültigkeit zu verleihen, wird auf diese Weise nicht mehr an eine objektivierbare, kontrollierbare und intersubjektiv nachvollziehbare Prozedur (also an etwas Nicht-Subjektives) gebunden, sondern ausdrücklich dem Diskurs interessierter Wissenschaftler (und damit einem sozialen Prozess) überantwortet.

Alle drei hier besprochenen Großstrategien (Begründung durch Charisma, Verfahren oder Diskurs) versuchen mit dem Problem umzugehen, dass eine über sich selbst aufgeklärte Wissenssoziologie nicht mehr problemlos von der Gültigkeit ihrer Aussagen sprechen kann, insbesondere dann nicht, wenn sie für die Gesellschaft Planungswissen zur Verfügung stellen will bzw. soll.

Es ist nun müßig, (erneut) die Frage ernsthaft zu diskutieren, ob die o. g. Verfahren wirklich in der Lage sind, unsere Perspektivität zu beseitigen. Denn es kann keinen Zweifel daran geben, dass sie dazu nicht in der Lage sind: Keines dieser Verfahren vermag es, den Schleier von den Sachen selbst wegzuziehen, also einen Zugang zur wirklichen Wirklichkeit zu ermöglichen.

Gibt man nun aber die Utopie einer wissenschaftlichen Aufklärung bis zur letzten Konsequenz auf und akzeptiert, dass mit einem gewissen Maß an Vagheit (auch als Wissenschaftler) durchaus gut zu leben ist, dann dreht die Methodologiedebatte nicht mehr (ohne vorwärts zu kommen) durch, sondern kann durchaus gute von weniger guten Argumenten unterscheiden. Denn es gibt nicht nur die Alternative zwischen der absoluten Aufklärung auf der einen und der Blindheit auf der anderen Seite, sondern man kann auch, wenn man nicht alles sehr klar sieht, mit entsprechenden Vorkehrungen immer noch ganz gut seinen Weg finden.

Die entscheidende Frage, die wir uns stellen müssen, lautet deshalb, wie aus sozialwissenschaftlicher Perspektive explizite Qualitätskriterien für die Zuverlässigkeit der Datenerhebung, für die Repräsentativität der Datenauswahl und für die Gültigkeit der (generalisierten) Aussagen bestimmt und kanonisiert werden können, die jedoch nicht an den (zu Recht fragwürdigen) Idealen einer kontextfreien Sozialforschung orientiert sind, sondern z. B. auch das Wechselspiel von Forschern und Beforschten, Forschung und gesellschaftlicher Verwertung bzw. Anerkennung und auch die Besonderheiten der »social world« (Strauss 1991b, vgl. auch Strauss 1991a) der Wissenschaftler mit reflektieren.

Welche Bedeutung haben Gütestandards?

Angesichts einer solchen Aufgabenstellung kann man leicht mit großem Pessimismus reagieren, aber dieser Pessimismus wird erheblich verstärkt, wenn man sich auf der Suche nach Lösungen des Gültigkeitsproblems die herrschende Praxis qualitativer Forschungsarbeit, oder genauer: deren Beschreibung in Forschungsberichten ansieht. Denn ein etwas gründlicherer Überblick über die vielen Research-Reports qualitativer Forschung zeigt, dass die Anything-goes-Forschung längst Alltag qualitativen Arbeitens geworden ist: Daten werden oft zufällig eingesammelt, deren Besonderheit wird weder diskutiert noch berücksichtigt, Auswertungsverfahren werden oft ohne Rücksicht auf Gegenstand, Fragestellung und Daten fast beliebig ausgewählt (ad hoc) und aufgrund der Spezifik der Forschungssituation vor Ort reflexionsfrei modifiziert, Einzelfälle werden nicht selten ohne Angabe von Gründen zu Typen stilisiert, und immer wieder werden die Geltungskriterien für eine schillernde und kurzweilige Formulierung aufgegeben.

Dass die Lage so ist, wie sie ist, hat nur zum Teil etwas damit zu tun, dass der kämpferische Aufbruchdrang der Qualitativen, die sich ja stets im Besitz der besseren Methoden wähnten und deshalb auch stets an deren Verbesserung gearbeitet haben, angesichts ihres Erfolgs erheblich nachgelassen hat: Heute ist nicht ein zu wenig qualitativer Sozialforschung zu verzeichnen, sondern eher ein zu viel (des Unreflektierten) – es gibt nur noch sehr wenige Wirklichkeitsbereiche, die noch nicht von (manchmal auch dilettantischen) qualitativen Untersuchungen überzogen wurden. Aber diese Allgegenwart der qualitativen Forschung spricht nur auf den ersten Blick für deren Erfolg. Auch die landesweite Normalität qualitativer Methodenunterweisung innerhalb der sozialwissenschaftlichen Hochschulausbildung, deren Absegnung durch den Berufsverband der Soziologen und die Einrichtung einer eigenen Sektion »Qualitative Methoden« in der DGS (Deutsche Gesellschaft für Soziologe) erfolgt ist, sind hierfür lediglich Indizien.

Möglicherweise ist dieser Erfolg aber auch eine Ursache für die oft geringe Qualität qualitativer Arbeiten. Denn die sprunghafte und sehr schnelle Ausweitung der Methodenausbildung (noch vor der Entwicklung und Kanonisierung von Geltungskriterien) produziert nicht nur mehr gute Arbeiten, sondern naturgemäß noch mehr schlechte. Zudem findet allzu oft qualitative Forschung nur auf der Ebene selbst finanzierter Qualifikationsarbeiten innerhalb der Hochschulen statt. Hat sie sich jedoch den Ansprüchen von (wissenschaftlichen, politischen, privatwirtschaftlichen) Förderinstitutionen und deren Standards zu stellen, dann sind qualitative Forschungsanträge deutlich weniger erfolgreich – und das zunehmend.

Dies liegt nun nicht daran, dass die Verfahren der Gütesicherung bei den Qualitativen weniger hart sind als bei den Quantitativen (wenn auch die Ersten wegen der etwas jüngeren Forschungstradition gewiss noch mehr Reflexions- und Verbesserungsbedarf haben) – vorausgesetzt, man berücksichtigt bei der Anlage des Forschungsdesigns die Fragen der Gütesicherung (was vielleicht manche Qualitative noch nicht ernsthaft genug tun) und immer eingedenk des Sachverhaltes, dass die quantitative und qualitative Sozialforschung (die sich im Übrigen keineswegs ausschließen, sondern im Gegenteil: sie ergänzen einander gut) sich auf andere Gegenstandsbereiche und Fragestellungen beziehen. Zielt die erste nämlich vor allem auf die Bestimmung der mengenmäßigen Verteilung und Relation von geäußerten Meinungen und Handlungen innerhalb großer Grundgesamtheiten, so geht es der zweiten vor allem um die (Re-) Konstruktion der manifesten bzw. latenten Handlungsmotivierung sozialer Akteure (vgl. Lüders/Reichertz 1986). Schon allein deshalb, also weil strukturell verschiedene Gegenstände untersucht werden und weil der Anspruch der Ansätze sich so stark unterscheidet, können naturgemäß die Methoden der Gütesicherung bei qualitativer und quantitativer Forschung nicht identisch sein (vgl. Erzberger/Kelle 1998, Kelle 2008).

Auf dem Weg zu Gütestandards qualitativer Sozialforschung

Will man die Güte qualitativer Forschung im wissenschaftlichen Diskurs (aber vor allem auch im Diskurs mit potenziellen Bewertern) verteidigungsfähig machen (anregend hierfür: Steinke 1999; Flick 2007, 485 ff.; Reichertz 2006, Flick 2014, Przyborski/Wohlrab-Sahr 2014, 21 ff.; Reichertz 2013b), dann gelingt dies heute keinesfalls mehr durch die Berufung auf die Autorität verstorbener Säulenheiliger der Wissenschaft, auch nicht durch den empiriefreien Einsatz wissenschaftlicher Vernunft und ebenfalls nicht durch die Unterstellung persönlicher Hellsichtigkeit. Stattdessen lässt sich die Güte von Aussagen nur über empirische Forschung rechtfertigen und deren Güte wiederum über spezifische (nach Gesellschaft, Zeit und Fachgebiet variierende) Standards der Qualitätssicherung. Letztere werden sich jedoch dabei (zumindest im westlichen Wissenschaftsprogramm) auf die Fragen der Zuverlässigkeit und der Repräsentativität der Datenerhebung und auf die Gültigkeit der Generalisierung beziehen müssen – will man in dem Wettbewerb um ökonomisches Forschungskapital im Spiel bleiben.

Kann bei der Bewältigung dieser nicht einfachen Aufgabe die qualitative Forschung (im Allgemeinen) unter Zugrundelegung eines (unreflektierten) Realismus solche Verfahren favorisieren, die versprechen, näher an der Wirklichkeit zu sein, so kann dieses Kriterium innerhalb einer reflexiven Sozialforschung so nicht gelten – hat sie sich doch von der Möglichkeit der Wirklichkeitsansicht verabschiedet – allerdings verbunden mit der Hoffnung, empirische Forschung und wissenschaftlicher Diskurs produzierten, wenn schon keine guten, dann jedoch bessere Einsichten. Sozialforschung kann deshalb letztlich nur auf die systematische und organisierte Produktion von Zweifeln (in jeder Phase des Forschungsprozesses) und die dadurch erreichte Fehlerausmerzung vertrauen.

Für diesen Zweck hat sich die sozialwissenschaftliche Forschung (trotz der nicht allzu weit zurückreichenden Forschungstradition) durchaus sinnvolle und auch harte Gütekriterien erarbeitet.

• So sichert z.B. die Bevorzugung natürlicher Daten, also solcher Daten, die nicht erzeugt wurden, um von Wissenschaftlern untersucht zu werden, und deren Erhebung und Fixierung mit Medien, die möglichst viel von der Qualität der Daten und der ihnen inhärenten Zeitstruktur konservieren, die Zuverlässigkeit der Datenerhebung (Reichertz 2006). Die Vorrangstellung natürlicher Daten bedeutet nun keinesfalls, dass Interviews oder Feldprotokolle für die qualitative Sozialforschung wertlos sind, sondern sie weist darauf hin, dass solche Daten immer unter Berücksichtigung der interaktiven Einbettung analysiert werden müssen – außer man interessiert sich z. B. dafür, was Menschen in Interviews sagen.

 

• Die Repräsentativität des Datensamples wird in der Regel hinreichend durch das Theoretical Sampling (Glaser/Strauss 1974; Strauss/ Corbin 1996; Bryant/Charmaz 2010; Equit/ Hohage 2016) gesichert, also eine Methode, die entweder nach dem Verfahren des minimalen und maximalen Kontrasts oder theoriegeleitet solange Daten innerhalb des Untersuchungsfeldes sucht, bis alle relevanten Variablen erfasst sind. Das Sample ist dann komplett und damit auch repräsentativ, wenn durch die Aufnahme weiterer Daten die Ergebnisse nicht weiter angereichert werden können.

• Die Gültigkeit von Generalisierungen resultiert dabei einerseits aus der Überprüfung der aus den Daten (mittels Abduktion oder qualitativer Induktion) gewonnenen Hypothesen am weiteren Datenbestand mittels Sequenzanalyse (Oevermann 2000; Soeffner 2004; Reichertz 2007 und 2016). Einmal gefundene Lesarten werden dabei anhand des Datenmaterials sequenzanalytisch auf Stimmigkeit überprüft, was bedeutet, dass die jeweilige Lesart als zu testende Hypothese gilt. Findet sich im weiteren Datenmaterial eine Lesart, die mit der zu testenden Hypothese nicht vereinbar ist, gilt diese als widerlegt, finden sich jedoch nur passende Lesarten, dann gilt die zu testende Hypothese als vorläufig verifiziert (Validierung am Text).

• Neben dieser Validierung am Text stellt sich die Güte von Generalisierungen andererseits dadurch her, dass meist gemeinsam in Gruppen interpretiert wird (Reichertz 2013b), dass weitere Validierungen (1) durch Kontrollinterpretationen anderer Mitglieder der Forschergruppe und (2) den wissenschaftlichen Diskurs (auf Tagungen) herbeigeführt wird (Validierung durch Diskurs). Hierbei geht es um die systematische Kontrolle durch die Perspektivenvielfalt und zugleich um deren Einbeziehung (Flick 2014).

Absolute Gewissheit über die Validität von Generalisierungen ist jedoch auch so nicht zu erreichen. Wahrheit im strengen Sinne des Wortes findet sich auf diese Weise nicht. Was man allein auf diesem Wege erhält, ist eine intersubjektiv aufgebaute und geteilte Wahrheit.

Eine qualitativ verfahrende Datenanalyse, deren Validität sowohl durch den Datenbezug als auch durch konkurrierende Lesartenkonstruktionen und den wissenschaftlichen Diskurs gesichert werden soll, hat notwendigerweise zur Voraussetzung, dass mehrere ausgebildete Wissenschaftler das Material unabhängig von einander interpretieren und auch immer wieder ihre Ergebnisse einer wissenschaftlichen Kritik aussetzen. Die Sicherung der wissenschaftlichen Ressourcen, um eine solche Überprüfung von Lesarten, Hypothesen und theoretischen Verallgemeinerungen vorzunehmen, trägt dabei nicht unwesentlich zur Erhaltung selbstverständlicher Standards und wissenschaftlicher Anforderungen an die Validität von Untersuchungen bei – was bedeutet, dass die qualitative Forschung nicht weiter auf den Schultern von Einzelkämpfern ruhen darf, sondern die kooperative und konkurrierende Teamarbeit muss selbstverständlicher Standard werden.

Fazit

Nur wenn die Standards wissenschaftlicher Güteprüfung in der qualitativen Forschung fest etabliert und auch weiter ausdifferenziert werden, hat dieses Forschungsprogramm unter den aktuellen Bedingungen eine Chance, auf dem Markt zu bleiben und auch dort zu bestehen. Gelingt eine solche Ausarbeitung, Abwägung und Kanonisierung der Standards in absehbarer Zeit nicht, dann werden qualitative Studien zwar in den Medien ein gewisses Echo finden, aber ansonsten werden sie eine gute Chance haben, bedeutungslos zu werden: Der qualitativ ausgebildete Nachwuchs wird schwerer in einen Beruf finden, qualitative Projekte werden minimal oder gar nicht mehr finanziert werden – was schlussendlich zur Marginalisierung dieser Forschungstradition führen wird.

Qualitative Sozialforschung – egal welche spezifische Methode sie im Einzelnen favorisiert – wird nur dann überleben können, wenn es ihr gelingt, mit guten Gründen die bereits vorhandene Grundlagentheorie, Methodologie und Methode weiter aus zu buchstabieren. Sie wird dabei nicht daran vorbeikommen, sich eindringlicher als bisher mit Fragen der Gütesicherung der Forschungsarbeit auseinanderzusetzen – allerdings immer eingedenk der wissenssoziologischen Einsicht, dass alle Arten von Gütekriterien Ergebnis gesellschaftlicher Konstruktionsprozesse sind.

Literatur

Berger, Peter/Luckmann, Thomas (1977): Die gesellschaftliche Konstruktion der Wirklichkeit. Frankfurt a. M.

Bourdieu, Pierre/Wacquant, Loic (1996): Reflexive Anthropologie. Frankfurt a. M.

Bryant, Antony/Charmaz, Kathy (Hrsg.) (2010): The Sage Handbook of Grounded Theory. (Second Edition). Paperback. London.

Equit, Claudia/Hohage, Christoph (2016): Handbuch Grounded Theory. Wiesbaden.

Erzberger, Christian/Kelle, Udo (1998): Qualitativ vs. Quantitativ? In: Soziologie, Heft 3, S. 45–54.

Flick, Uwe (2004): Triangulation. Wiesbaden.

Flick, Uwe (2007): Qualitative Sozialforschung. Reinbek.

Flick, Uwe (2014): Gütekriterien qualitativer Forschung. In: Baur, Nina/Blasius, Jörg (Hrsg.): Handbuch Methoden der empirischen Sozialforschung. Wiesbaden, S. 411–424.

Garz, Detlev/Raven, Uwe (2015): Theorie der Lebenspraxis. Wiesbaden.

Geertz, Clifford (1987): Dichte Beschreibung. Frankfurt a. M.

Glaser, Barney/Strauss, Anselm (1974): The Discovery of Grounded Theory: Strategies for Qualitative Research. Chicago.

Kelle, Udo (2008): Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung: Theoretische Grundlagen und methodologische Konzepte. Wiesbaden.

Keller, Reiner/Knoblauch, Hubert/Reichertz, Jo (Hrsg.) (2012): Kommunikativer Konstruktivismus. Wiesbaden.

Lüders, Christian/Reichertz, Jo (1986): Wissenschaftliche Praxis ist, wenn alles funktioniert und keiner weiß warum – Bemerkungen zur Entwicklung qualitativer Sozialforschung. In: Sozialwissenschaftliche Literatur Rundschau, H. 12, S. 90–102.

Oevermann, Ulrich (2000): Die Methode der Fallrekonstruktion in der Grundlagenforschung sowie der klinischen und pädagogischen Praxis. In: Klaus Kraimer (Hrsg.): Die Fallrekonstruktion. Sinnverstehen in der sozialwissenschaftlichen Forschung. Frankfurt am Main, S. 58–156.

Oevermann, Ulrich/Allert, Tilman/Konau, Elisabeth/Krambeck, Jürgen (1979): Die Methodologie einer »objektiven Hermeneutik« und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In: Soeffner, Hans-Georg (Hrsg.): Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart, S. 352–434.

Peirce, Charles Sanders (1976): Schriften zum Pragmatismus und Pragmatizismus, herausgegeben von Karl-Otto Apel. Frankfurt a. M.

Przyborski, Aglaja /Wohlrab-Sahr, Monika (2014): Qualitative Sozialforschung. Ein Arbeitsbuch. München.

Reichertz, Jo (2006): Läßt sich die Plausibilität wissenssoziologischer Empirie selbst wieder plausibilisieren? In: Dirk Tänzler/Knoblauch, Hubert/Soeffner, Hans-Georg (Hrsg.): Neue Perspektiven der Wissenssoziologie. Konstanz. 293–316.

Reichertz, Jo (2007): Qualitative Sozialforschung – Ansprüche, Prämissen, Probleme. In: Erwägen – Wissen – Ethik 18 (2007) Heft 2, S. 195–208.

Reichertz, Jo (2013a): Die Abduktion in der qualitativen Sozialforschung. Opladen.

Reichertz, Jo (2013b): Gemeinsam interpretieren. Die Gruppeninterpretation als kommunikativer Prozess. Wiesbaden: Springer Verlag.

Reichertz, Jo (2016): Qualitative und interpretative Sozialforschung. Eine Einladung. Wiesbaden.

Soeffner, Hans-Georg (2004): Auslegung des Alltags – Der Alltag der Auslegung. Konstanz.

Steinke, Ines (1999): Kriterien qualitativer Forschung. Weinheim.

Strauss, Anselm (1991a): Grundlagen qualitativer Forschung. München.

Strauss, Anselm (1991b): Creating Sociological Awareness. New Brunswick.

Strauss, Anselm/Corbin, Juliette (1996): Grundlagen qualitativer Forschung. Weinheim.

Kohärenz und Validität

UWE FLICK

Die Frage der Qualität qualitativer (Medien-) Forschung wird hier für zwei Ansätze behandelt. Kohärenz meint dabei einerseits die Stimmigkeit der gefundenen Ergebnisse, andererseits die Stimmigkeit des gewählten Vorgehens und seiner Einzelschritte. Kohärenz wird zwar gelegentlich als Kriterium für die Qualität qualitativer Forschung diskutiert, hier aber eher im Sinne einer Strategie zur Steigerung dieser Qualität behandelt. Als konkrete Vorschläge zur Umsetzung werden hier die Klärung der Indikationsfrage für Methoden und Ansätze des Qualitätsmanagements skizziert. Validität ist eines der klassischen Gütekriterien standardisierter Forschung, das teilweise auf qualitative Forschung übertragen wird, teilweise mit Blick auf diese reformuliert wird. Auch hier schlagen verschiedene Autoren einen Wechsel zur Strategie der Geltungsbegründung – von der Validität zu Validierung – vor.

Zur Qualität qualitativer Forschung

Qualitative Forschung ist – nicht speziell im Bereich der Medienforschung, sondern generell – seit längerem mit der Frage konfrontiert, wie und wodurch die Qualität der Forschung, der Vorgehensweisen und Ergebnisse bestimmt werden soll. So wird versucht, einen Kriterienkatalog für qualitative Forschung zu entwickeln. Diese Kriterien sollen dann für qualitative Forschung insgesamt oder für einen bestimmten Ansatz im Spektrum qualitativer Forschung oder für eine konkrete Methode gelten. Es existieren mittlerweile eine ganze Reihe von Vorschlägen für solche Kriterien (vgl. Flick 2016, Kap. 28 und 29 für einen Überblick). Dabei sind vor allem zwei Probleme aufgetreten, die die Unterschiede zur Situation in der quantitativen Forschung deutlich machen: Keiner der Vorschläge ist bislang so allgemein akzeptiert wie die Kriterien Reliabilität, Validität und Objektivität in der quantitativen Forschung. Und die bislang vorliegenden Vorschläge für Kriterien beinhalten in der Regel keine Grenzwerte oder Markierungen zur Unterscheidung schlechter von guter Forschung. Bei der Reliabilitätsbestimmung in der quantitativen Forschung wird immer auch ein Grenzwert festgelegt, wie groß die Übereinstimmung zwischen wiederholt durchgeführten Messungen sein muss, damit diese noch als reliabel betrachtet werden können. Bei Kriterien wie Authentizität, die wiederholt für die qualitative Forschung vorgeschlagen wurden (Lincoln/ Guba 1985), lässt sich keine vergleichbare Grenzziehung vornehmen.

Andererseits wird deshalb die Frage der Qualitätsbestimmung qualitativer Forschung an bestimmten Strategien der Qualitätssicherung festgemacht. Hier sind verschiedene Ansätze zu nennen wie die Analytische Induktion, die Triangulation (vgl. Flick 2011; 2018) und Ähnliches. Kohärenz nimmt hier eine Zwischenstellung ein. Einerseits wird sie zu einem Kriterium vor einem konstruktivistischen Hintergrund (etwa bei Steinke 1999), andererseits lässt die Herstellung bzw. Erhöhung der Kohärenz im Forschungsprozess sich als eine Strategie der Qualitätssicherung bzw. -förderung im qualitativen Forschungsprozess beschreiben. Die Herstellung von Kohärenz im Forschungsprozess ist eine solche Strategie, die auf unterschiedliche Weise realisiert bzw. umgesetzt werden soll. Entsprechend werden im nächsten Schritt solche Strategien diskutiert, bevor auf Kriterien wie Validität und ihre Alternativen eingegangen wird.