Wörterbuch der Soziologie

Text
0
Kritiken
Leseprobe
Als gelesen kennzeichnen
Wie Sie das Buch nach dem Kauf lesen
Schriftart:Kleiner AaGrößer Aa

Olaf Groh-Samberg/Wolfgang Voges

Ausbeutung

In der ursprünglichen, heute noch geläufigen Bedeutung meint Ausbeutung (engl. exploitation) die Extraktion von Bodenschätzen. Als Aneignung fremder, unbezahlter Arbeit hat Marx – im Anschluss an die klassische Politische Ökonomie (A. Smith; D. Ricardo) und den Frühsozialismus (R. Owen) – Ausbeutung ins Zentrum seiner Kapitalismusanalyse und Klassentheorie gerückt. Dort erscheint Ausbeutung als Bedingung der Kapitalverwertung und Ursache des Klassenantagonismus zwischen Lohnarbeit und Kapital. In der Entfremdung und Verelendung des Proletariats werden ihre Begleit- und Folgeerscheinungen gesehen.

Alle Klassensysteme beruhen auf Ausbeutung, auf dem Transfer von unbezahlter Arbeit von der ausgebeuteten zur ausbeutenden Klasse. Die vorkapitalistischen Formen der Ausbeutung (Sklaverei; Leibeigenschaft) sind leichter durchschaubar als die kapitalistische Ausbeutung, weil jene auf außerökonomischem Zwang beruhen und die Gratisarbeit der Ausgebeuteten offensichtlich ist, diese jedoch durch die frei kontrahierte Lohnarbeit verschleiert wird: »Auf Basis des Lohnsystems erscheint auch die unbezahlte Arbeit als bezahlt« (MEW 16, 134). Das »Geheimnis des Arbeitslohns« sah Marx darin, dass in Wirklichkeit nur die notwendige Arbeit (d. h. das Äquivalent für die Reproduktionskosten der Arbeitskraft) entlohnt wird und die Mehrarbeit den Kapitalbesitzern als Mehrwert zufließt. Die Mehrwertrate (Verhältnis der Mehrarbeitszeit zur notwendigen Arbeitszeit) ist das Maß für die Ausbeutung.

Der Marxsche Ausbeutungsbegriff wird gewöhnlich als Bestandteil der Arbeitswerttheorie angesehen, Roemer und Holländer haben indes gezeigt, dass Ausbeutung und Klassenantagonismus auch unabhängig von dieser Theorie begründet werden können, wobei Holländer die Marxsche Annahme in Frage stellt, dass Ausbeutung ausschließlich in der Produktionssphäre stattfinde. Ein ökonomisch-mathematischer Beweis für die Ausbeutung stammt von Morishima.

[41]Mit der Theorie vom »ungleichen Tausch« hat Emmanuel, im Anschluss an Lenins Imperialismustheorie, den Ausbeutungsbegriff auf das Verhältnis der Industrieländer zu den Entwicklungsländern der Dritten Welt übertragen. Auch Wallersteins Weltsystemtheorie (1974 ff.; 1984) basiert auf der Annahme eines systematischen Profittransfers von den Ländern der Peripherie in die des kapitalistischen Zentrums.

Literatur

Emmanuel, Arghiri, 1972: Unequal Exchange, London. – Holländer, Heinz, 1982: Class Antagonism, Exploitation and the Labour Theory of Value; in: The Economic Journal 92, 868–885. – Marx, Karl, 1962: Das Kapital, 1. Bd.; in: Marx-Engels-Werke (MEW), Bd. 23, Berlin. – Ders., 1968: Lohn, Preis und Profit; in: Marx-Engels-Werke (MEW), Bd. 16, Berlin. – Morishima, Michio, 1973: Marx’s Economics, Cambridge. – Roemer, John E., 1982: A General Theory of Exploitation and Class, Cambridge (Mass.). – Wallerstein, Immanuel, 1974(I), 1980(II), 1989(III): The Modern World System, Vols. I ff., New York. – Ders., 1984: Der historische Kapitalismus, Berlin.

Walther Müller-Jentsch

Auswahlverfahren

Auswahlverfahren in der quantitativen Forschung

Die quantitativen Auswahlverfahren (engl. sampling strategies) sind Methoden, die im Rahmen des quantitativen Forschungsparadigmas dazu dienen, aus einer bestimmten Grundgesamtheit gezielt jene Elemente auszuwählen, die einer empirischen Analyse unterzogen werden sollen.

Untersuchungsansätze, die dem quantitativen Paradigma folgen, zielen in der Regel darauf ab, Parameter einer Grundgesamtheit anhand von bei Stichproben ermittelten Parametern zu schätzen. So könnte es beispielsweise darum gehen, den vermutlichen Stimmenanteil zu schätzen, der auf eine bestimmte Partei bei einer Wahl entfallen wird. Da es kaum möglich ist, für diesen Zweck alle Elemente der Grundgesamtheit – in unserem Beispiel alle wahlberechtigten Bürger – zu befragen, werden in der quantitativen Forschung Auswahlverfahren eingesetzt. Mittels solcher Stichprobenverfahren wird eine bestimmte Anzahl an Personen ausgewählt, die dann empirisch untersucht werden. Aus den so ermittelten Ergebnissen erfolgt dann die Schlussfolgerung auf die Grundgesamtheit.

Die Bedeutung quantitativer Auswahlverfahren

Quantitative Auswahlverfahren besitzen in der empirischen Sozialforschung eine hohe Bedeutung: Erstens verursacht die Erhebung von empirischen Informationen Kosten. Mit steigendem Stichprobenumfang nehmen diese Kosten zu. Gelingt es, für die Bearbeitung eines Problems eine optimale Stichprobengröße zu bestimmen, so können entsprechend Kosten gespart werden. Zweitens erlauben es die quantitativen Auswahlverfahren, Vertrauensintervalle zu bestimmen. Die Erhebung von Stichproben liefert – im Unterschied zu Totalerhebungen – stets nur unsichere Ergebnisse. Ist für die Auswahl der Elemente der Stichprobe ein Zufallsverfahren eingesetzt worden, so lässt sich ermitteln, in welchem Intervall der in der Stichprobe ermittelte Wert mit welcher Wahrscheinlichkeit auch in der Grundgesamtheit angetroffen werden kann. Die Frage, ob z. B. eine Partei die Fünfprozenthürde erreichen wird, wenn sie in einer Umfrage einen bestimmten Wert erreicht hat, lässt sich über die Bestimmung des Vertrauensintervalls beantworten.

In der sozialwissenschaftlichen Umfragepraxis hat sich eine ganz Reihe an Auswahlverfahren etabliert. Dabei handelt es sich um die Zufallsverfahren, bewussten Auswahlverfahren und willkürlichen Verfahren zur Auswahl der Untersuchungseinheiten.

Zufallsauswahlen

Allen Zufallsauswahlen ist gemeinsam, dass die Wahrscheinlichkeit angegeben werden kann, mit der ein Element der Grundgesamtheit in die Stichprobe gelangt. Diese Wahrscheinlichkeit muss größer als null sein.

Bei einstufigen oder einfachen Zufallsverfahren erfolgt die Auswahl ähnlich wie mithilfe einer Urne oder einer Lostrommel. Hier wird aus der Gesamtheit aller Elemente zufällig die gewünschte Anzahl gezogen. Dafür ist in der Praxis ein Auswahlrahmen (engl. frame) erforderlich, in dem diese Elemente vollständig verzeichnet sind und der von der Forschung für diesen Zweck genutzt werden darf. Für zahlreiche Untersuchungsanliegen existiert ein solcher Auswahlrahmen jedoch nicht, weshalb nach[42] anderen Strategien gesucht werden muss. In der Bundesrepublik haben sich mehrstufige, geschichtete und geklumpte Zufallsverfahren durchgesetzt, um Stichproben in der Allgemeinbevölkerung zu ziehen. Dazu werden in einem ersten Schritt Gemeinden gezogen. Hier existieren dann Melderegister, aus denen beim Vorliegen bestimmter Voraussetzungen eine Zufallsauswahl an zu befragenden Personen gezogen werden kann. Hier handelt es sich also um ein zweistufiges Verfahren. Der ADM hat für diesen Zweck ein dreistufiges Design entwickelt (vgl. ADM 1999).

Auch für telefonische Befragungen wurden Vorgehensweisen für die Ziehung von Zufallsstichproben ausgearbeitet, da hier ebenfalls nicht auf einen geeigneten frame zurückgegriffen werden kann. Bekanntlich sind zahlreiche Telefonanschlüsse nicht mehr in Verzeichnissen gelistet. Deshalb werden zunächst aus den zur Verfügung stehenden Verzeichnissen alle gelisteten Rufnummern heruntergeladen. Danach werden systematisch in bestimmten Abschnitten Nummernfolgen ergänzt und daraus dann zufällig die für die Stichproben zu verwendenden Nummern gezogen. Zu Einzelheiten bei dieser Vorgehensweise vgl. Gabler/Häder (1997, 2002) und Häder et al. (2012).

Bewusste und willkürliche Auswahlen

Eine andere Klasse an Auswahlverfahren sind die bewussten Auswahlen, bei denen nicht zufällig, sondern bewusst ermittelt wird, wer in die Stichprobe gelangt. Gegenüber den Zufallsauswahlen kann hier eine Wahrscheinlichkeit, mit der ein Element in die Stichprobe gelangt, nicht angegeben werden. Insbesondere Quotenverfahren werden genutzt, um eine solche Auswahl vorzunehmen. Dazu werden den Interviewern bestimmte Merkmale der zu befragenden Personen vorgegeben. Diese werden als Quoten bezeichnet. Die Zusammenstellung der Quoten erfolgt nach Merkmalen wie der Ortsgröße, dem Geschlecht, dem Alter und der Tätigkeit der zu befragenden Person. Im Weiteren steht es den Interviewern frei, welche Personen sie für die Befragung aussuchen. Im Ergebnis erhält man eine Stichprobe, die in den genannten Kriterien die Struktur der Grundgesamtheit abbildet. Andere Verfahren, die zu einer bewussten Auswahl führen, suchen bspw. nach typischen Beispielen für eine konkrete Ausprägung von Merkmalen oder nach kontrastierenden Beispielen, um die bisherigen Erkenntnisse gezielt mittels weiterer Informationen zu ergänzen.

Schließlich kommen auch willkürliche Auswahlen zum Einsatz. Diese zeichnen sich dadurch aus, dass sie die Stichprobenelemente unkontrolliert rekrutieren, dass also die Auswahl nicht – wie bisher beschrieben – bestimmten Regeln folgt. Diese preisgünstige Strategie hat sich als gangbare Möglichkeit erwiesen, wenn es darum geht, bestimmte Modelle zu testen. Auch in der psychologischen Forschung sowie im Rahmen von Pretests hat ein solches Vorgehen Bedeutung.

Auswahlverfahren in der qualitativen Forschung

Auch in der qualitativen Forschung ist zu überlegen, welche Fälle man für eine Untersuchung auswählt. Wenngleich das Thema in der Methodenliteratur lange wenig Aufmerksamkeit erfuhr, so bezweckt die qualitative Forschung ebenfalls, Aussagen über die untersuchten Fälle hinaus zu treffen (und nicht etwa, einen Sachverhalt anhand beliebiger Fälle zu illustrieren). Verallgemeinerungen erfolgen hier allerdings nicht, wie in der quantitativen Forschung üblich, auf dem Weg der statistischen Repräsentativität einer möglichst großen Stichprobe für die Grundgesamtheit einer Population, sondern mit Hilfe anderer Verfahren (z. B. einer Typenbildung) und oft mit einem Schwerpunkt auf Theorieentwicklung. Für die Auswahl von Fällen heißt dies, dass das Sampling ein Abbild der theoretisch relevanten Kategorien widerspiegelt.

 

Es sind verschiedene Verfahren des Samplings zu unterscheiden, die auch kombinierbar sind:

In einer Einzelfallstudie wird ein bestimmter Fall untersucht (eine Person, Organisation, eine Situation etc.), wobei unterstellt wird, dass allgemeine Strukturen in dem Fall zum Ausdruck kommen (z. B. die Kulturhauptstadt Europas als ein Beispiel für ein ›Mega-Event‹ bei Hitzler et al. 2013). Teilweise dient eine Einzelfallstudie als (eigenständige) Exploration vor weiteren empirischen Forschungen zum Thema.

Andere qualitative Auswahlverfahren zielen darauf, Fälle einzubeziehen, die die Bandbreite der für das Thema relevanten Kategorien spiegeln. Insbesondere gehört dazu das von B. Glaser und A. Strauss im Rahmen der Grounded Theory entwickelte Theoretische Sampling. Die Fälle werden hier nach und nach[43] im Laufe der Untersuchung bestimmt: Nach einer recht offenen Auswahl erster Fälle werden Hypothesen über relevante Kategorien bzw. Konzepte aufgestellt und auf dieser analytischen Basis mittels minimaler und maximaler Kontrastierung weitere Fälle ausgewählt. In einer Studie von Glaser/Strauss über die Interaktion mit Sterbenden stellte sich etwa als relevante Kategorie heraus, in welchem Maße sich der Sterbende seines Zustands bewusst war. Der Prozess der Datenerhebung wird somit durch die sich entwickelnde Theorie kontrolliert. Die minimale Kontrastierung richtet sich auf ähnliche Fälle (mit der Frage, ob sie die Relevanz der Kategorien und Zusammenhänge bestätigen), die maximale Kontrastierung lotet die Varianz im Untersuchungsfeld aus, bis durch neue Fälle keine neuen Erkenntnisse mehr erzielt werden können. Man spricht hierbei von theoretischer Sättigung. Um diese Sättigung zu erreichen, wird unter anderem das Schneeballverfahren angewendet, wobei Akteure im Feld, z. B. Interviewpartnerinnen, auf andere Akteure verweisen und ggf. einen Kontakt zu ihnen herstellen.

Ein anderer Weg, die Bandbreite eines Untersuchungsfeldes abzustecken, ist das selektive Sampling. Es handelt sich um eine Fallauswahl nach zuvor festgelegten Kriterien. Dies kann bspw. im Rahmen eines Mixed-Methods-Designs geschehen, wenn Befunde aus quantitativen Studien näher auf zugrunde liegende Mechanismen untersucht werden sollen und dann z. B. Teilgruppen in den Blick genommen werden (z. B. zum Thema Studienverläufe Absolvent/innen, die ihr Studium besonders schnell abgeschlossen haben). Teilweise liegen auch vor der Datenerhebung Arbeitshypothesen über strukturell bedeutsame Einflussfaktoren vor, so dass ein Stichprobenplan mit einer Kombination der Ausprägungen dieser Merkmale erstellt wird (z. B. könnte festgelegt werden, aus mehreren Wirtschaftsbranchen jeweils Frauen und Männer zu befragen). Auch dieses Verfahren – das nicht zuletzt oft forschungspraktischen Erwägungen folgt – strebt die Berücksichtigung theoretisch bedeutsamer Merkmalskombinationen an und stellt nicht das Abbild einer Häufigkeitsverteilung dar.

Literatur

ADM, Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e. V. (Hg.), 1999: Stichproben-Verfahren in der Umfrageforschung. Eine Darstellung für die Praxis, Opladen. – Gabler, Siegfried; Häder, Sabine, 1997: Überlegungen zu einem Stichprobendesign für Telefonumfragen in Deutschland; in: ZUMA-Nachrichten 41, 7–18. – Dies. (Hg.), 2002: Telefonstichproben, Münster u. a. – Häder, Sabine et al., 2012: Telephone Surveys in Europe, Research and Practice, Berlin/Heidelberg. – Hitzler, Ronald et al., 2013: Mega-Event-Macher. Zum Management multipler Divergenzen am Beispiel der Kulturhauptstadt Europas RUHR.2010, Wiesbaden. – Kelle, Udo; Susann Kluge, 1999: Vom Einzelfall zum Typus, Opladen, Kap. 3. – Kromrey, Helmut, 2009: Empirische Sozialforschung, 12. Aufl., Stuttgart, 251–295. – Przyborski, Aglaja; Wohlrab-Sahr, Monika, 2008: Qualitative Sozialforschung, München, Kap. 4. – Strauss, Anselm; Corbin, Juliet, 1996: Grundlagen qualitativer Sozialforschung, Weinheim, Kap. 11.

Michael Häder/Nicole Burzan

Autorität

Herkunft und Bedeutung des Begriffs

Der Begriff Autorität (engl. authority) leitet sich aus dem lateinischen auctoritas ab, das für eine charismatische Macht stand, die den im Staat maßgeblichen Persönlichkeiten zugeschrieben wurde. Der Schlüsselsatz zum Verständnis des Begriffes findet sich im Tatenbericht des ersten römischen Kaisers Augustus, der im Jahr 27 v. Chr. seine vorher gewaltsam erworbenen Machtbefugnisse feierlich an die (allerdings politisch gleichgeschalteten) legitimen Verfassungsorgane zurückgab und seitdem formal als Privatmann lebte, faktisch jedoch auch weiterhin unangefochten über das Reich herrschte. Er schrieb: »Seit jener Zeit (nämlich seit der Rückgabe der Ämter) überragte ich alle an auctoritas, an Amtsgewalt aber besaß ich nicht mehr als die anderen, die auch ich im Amt zu Kollegen hatte« (Augustus 1975, Abschnitt 34). Auctoritas steht für eine informelle, auf Ansehen, Würde und Respekt gegründete Machtposition und ist damit streng zu trennen von potestas, der formellen Amtsgewalt.

Diese Bedeutung bildet auch heute noch den Kern des Begriffes »Autorität«. Der Pädagoge Winfried Böhm drückt es so aus: »Autorität ist streng zu unterscheiden von Macht und Gewalt. Während diese die faktische Möglichkeit bezeichnen, anderen zu befehlen und sie zu einem bestimmten Handeln und Verhalten zu zwingen, setzt jene grundsätzlich die freie Zustimmung dessen voraus, über den Autorität ausgeübt wird (…). Autorität meint also die[44] anerkannte Fähigkeit einer Person, einer Gesellschaft oder Einrichtung, auf andere einzuwirken, um sie einem bestimmten Ziel näherzubringen« (Böhm 1994, 60).

Autorität und Autoritarismus

Allerdings wird im Alltagsverständnis und auch in manchen wissenschaftlichen Diskussionen die logische Trennung zwischen Autorität und auf Gewalt gegründete Machtausübung nicht immer vollständig vollzogen. Die klare Unterscheidung zwischen authority und authoritarianism, wie sie im Englischen üblich ist, hat sich im Deutschen nicht gänzlich durchgesetzt. Eine Schlüsselrolle spielt in diesem Zusammenhang vermutlich die berühmte Studie »The Authoritarian Personality« von Theodor W. Adorno und Mitarbeitern aus dem Jahr 1950 (Adorno 1967), die den Begriff des Autoritären prominent in der intellektuellen Debatte platzierte. Dieses Stichwort wurde in den folgenden Jahrzehnten in verschiedener Form aufgegriffen – etwa als »antiautoritäre Erziehung« – und dabei oft mit der Forderung verbunden, traditionelle Autoritäten in Frage zu stellen. Die dadurch entstandene Vermischung der Begriffe klingt im heutigen Wortverständnis nach. In Repräsentativumfragen zeigt sich, dass das Stichwort »Autorität« bei Teilen der Bevölkerung auch Assoziationen wie »Machtmissbrauch« oder »Gewalt« weckt, die eigentlich eher dem Begriff des Autoritären zuzuordnen wären (Petersen 2011, 23).

Quellen der Autorität

Autorität wird von der Bevölkerung überwiegend als Persönlichkeitseigenschaft verstanden, sie ist aber zu einem gewissen Grad auch an Ämter und gesellschaftliche Positionen gebunden. Autorität ist deswegen nicht mit bloßer Gefolgschaft aufgrund von Vertrauen zu verwechseln, auch wenn beides miteinander verknüpft ist. Fragt man die Bevölkerung, welchen Personengruppen sie vertraut, und zum Vergleich, welche Personengruppen Autorität besitzen, erhält man unterschiedliche Ranglisten. Vertrauen wird beispielsweise Ärzten entgegengebracht, Nichtregierungsorganisationen oder Vereinen. Autorität besitzen aus Sicht der Bevölkerung beispielsweise die Polizei, Gerichte, aber auch Lehrer und Professoren (Petersen 2011, 65). Zur Bereitschaft, die Autorität einer Person anzuerkennen, gehört damit auch der Respekt vor deren gesellschaftlicher Position.

Gesellschaftliche Bewertung von Autorität

Autorität wird – trotz der beschriebenen Begriffsvermischung mit dem Stichwort des Autoritären – von der deutschen Bevölkerung überwiegend als etwas Notwendiges angesehen. Die positiven Assoziationen überwiegen deutlich die negativen. Auf die Frage »Glauben Sie, dass man in einer Gesellschaft Autoritätspersonen braucht, oder meinen Sie das nicht?« antworteten in einer Repräsentativumfrage vom Herbst des Jahres 2010 79 %: »Man braucht sie« (Petersen 2011, 34).

Literatur

Adorno, Theodor W., 1967: The Authoritarian Personality, 2 Bde, 3. Aufl., New York. – Augustus, 1975: Res Gestae Tatenbericht (Monumentum Ancyranum). Lat.-griech. u. deutsch. Übers. u. hg. v. Marion Giebel, Stuttgart. – Böhm, Winfried, 1994: Wörterbuch der Pädagogik, 14. Aufl., Stuttgart. – Petersen, Thomas, 2011: Autorität in Deutschland. Bad Homburg.

Thomas Petersen

[45]B

Bedürfnis

Ein Bedürfnis (engl. need) ist zunächst das Gefühl eines Menschen, einen Mangel zu haben, und der Wunsch, diesen Mangel zu beheben. Das ist ein psychologischer Bedürfnisbegriff. Zum soziologischen wird er, wenn der Mangel von den Menschen in einer sozialen Gruppierung, z. B. einer Schicht oder einer Berufs- oder Altersgruppe, empfunden wird und die Behebung auf gesellschaftliche Weise stattfinden soll oder muss, z. B. durch Gesetzgebung oder Subvention. Ein soziologischer Bedürfnisbegriff könnte also lauten: Ein Bedürfnis ist ein sozialer Katalysator, bei dem die Menschen in einer sozialen Gruppierung einen Mangel empfinden und den Wunsch haben, den Mangel auf gesellschaftliche Weise zu beheben. Daneben gibt es noch andere Bedürfnisbegriffe, z. B. wirtschaftswissenschaftliche oder medizinische.

Als sozialer Katalysator steuern Bedürfnisse das Handeln des Menschen. Beispielsweise wird ein Machthungriger für eine Wahl in eine Machtposition kandidieren, oder eine freiheitliche soziale Bewegung wird den Aufstand gegen einen Diktator wagen. Eine frühe, in der Forschung oft benutzte Theorie, die Theorie der Bedürfnispyramide von Abraham Maslow, teilt die Bedürfnisse in fünf Gruppen ein: 1) physiologische Bedürfnisse (Unterkunft, Schlaf, Nahrung), 2) Sicherheit (Ordnung des täglichen Lebens), 3) Zugehörigkeit zu anderen Menschen, 4) Selbstachtung und soziale Anerkennung, 5) Selbstverwirklichung (die Reihe wurde 1970 noch erweitert; in den Sozialwissenschaften wurde bisher aber meistens das ursprüngliche Fünferschema verwendet). Diese Theorie nimmt an, dass jedes Bedürfnis erst dann auftauche bzw. verwirklicht werde, wenn die jeweils vorherigen im Wesentlichen erfüllt sind. Empirisch ist diese Theorie manchmal bestätigt worden, manchmal nicht. Gleiches zeigten Untersuchungen zur Theorie von Ronald lnglehart, dass jedenfalls in entwickelten lndustriegesellschaften die zuvor herrschenden materiellen Bedürfnisse zunehmend von Immateriellen abgelöst würden. Eine andere Unterscheidung trennt primäre (naturgegebene, z. B. Triebe, lnstinkte) von sekundären (gelernten) Bedürfnissen. Das führt zu der Frage, ob Bedürfnisse auch,, geweckt« werden können, etwa durch Werbung oder soziale Vorbilder. Beispiele (etwa Hula-Hoop oder Tamagotchi) zeigen bisher, dass das nur vorübergehend möglich ist. Anders ist es bei neuen Mitteln zur Befriedigung eines alten Bedürfnisses (z. B. neue Kommunikationsmittel). Politisch-praktisch wirksam wurde der Begriff der Grundbedürfnisse in der 2. Hälfte des 19. Jhs. Formuliert wurde er 1976 vom lnternationalen Arbeitsamt (ILO) in Genf. Dabei wurden private Konsumbedürfnisse (Unterkunft, Nahrung, Kleidung usw.) von sozialer lnfrastruktur (sauberes Trinkwasser, Abwasser- und Müllentsorgung, Gesundheitsdienst, öff. Verkehrsmittel, Ausbildung) unterschieden. Dieses Konzept sollte die Primärziele für nationale und internationale Entwicklungsmaßnahmen bestimmen helfen. Als empirisch gesichert kann gelten, dass die Bedürfnisse sich nach Zahl und Rang von einer Kultur zur anderen unterscheiden, dass aber auch innerhalb einer Kultur sich Subkulturen in ihren Bedürfnissen unterscheiden (z. B. zwischen Künstlern und lnvestmentbankern oder zwischen Jugendlichen und Rentnern). Damit sind Bedürfnisse großenteils die dynamische Seite der Wertordnung.

Literatur

Hondrich, Karl Otto; Vollmer, Randolph (Hg), 1983: Bedürfnisse im Wandel, Wiesbaden. – lnglehart, Ronald F., 1977: The Silent Revolution, Princeton (dt. 1982). – Maslow, Abraham H., 1954: Motivation and Personality, New York (dt. 1977/1981). – UNESCO, 1978: Study in Depth on the Concept of Basic Human Needs in Relation to Various Ways of Life and its Possible lmplications for the Action of the Organization, Paris.

 

Günter Endruweit

Befragung

Die Befragung (engl. interview) ist ein Datenerhebungsinstrument der empirischen Forschung neben der Beobachtung und der Inhaltsanalyse. Sie wird in der quantitativen Forschung in (teil-)standardisierter Form, in der qualitativen Forschung in nicht standardisierter Form angewandt.

[46]Standardisierte Befragungen in der quantitativen Forschung

In der quantitativen Forschung galt die Befragung lange als Königsweg der Datenbeschaffung und wird nach wie vor am häufigsten verwendet. Insbesondere bei der Untersuchung von Einstellungen ist sie oft das Instrument der Wahl. Große Längsschnittbefragungen in Deutschland, die mehrere Themen abdecken, sind z. B. der Mikrozensus, die Allgemeine Bevölkerungsumfrage (ALLBUS) und das Sozioökonomische Panel (SOEP). Meist handelt es sich um Einzel-(nicht Gruppen-)Befragungen möglichst vieler Personen. Standardisierung bedeutet, dass der Wortlaut der Fragen und der Antwortmöglichkeiten sowie die Reihenfolge feststehen (die zutreffende Antwort wird angekreuzt). Dies fördert die Vergleichbarkeit der Daten und mindert zudem den Aufwand für die Befragten und für den auswertenden Forscher.

Formen der standardisierten Befragung

 ppersönlich-mündlich

 ttelefonisch

 sschriftlich (Papierform/Online)

Befragungen können persönlich-mündlich, telefonisch oder schriftlich (in Papierform oder als Online-Befragung) durchgeführt werden; oft erfolgt die Befragung dabei computerunterstützt (z. B. werden die Antworten direkt in den Computer eingegeben, was späteren Übertragungsfehlern vorbeugt und die Filterführung vereinfacht). Jede Form hat Vor- und Nachteile, der Forscher entscheidet je nach Fragestellung und Praktikabilität.

So ist bei der persönlich-mündlichen Befragung die Ausschöpfung relativ groß, bei hoher Situationskontrolle sind auch längere Interviews möglich. Dem stehen eine mögliche Verzerrung durch den Interviewereinfluss (ggf. antwortet die ältere Frau einer anderen älteren Frau anders als einem jungen Mann) sowie ein vergleichsweise hoher Kosten- und Zeitaufwand gegenüber.

Bei der schriftlichen Befragung entfällt der Interviewereinfluss, der Anonymitätsgrad steigt, die Kosten sind geringer. Jedoch fehlt auch die Situationskontrolle (z. B. Kontrolle der Anwesenheit anderer und der Ernsthaftigkeit der Antworten), und die Fragebögen müssen in noch höherem Maße selbsterklärend sein. Das größte Problem der schriftlichen Befragung ist die geringe Ausschöpfung (insbesondere in Papierform), selbst nach Erinnerungsschreiben. In der Online-Variante, in der die Befragten nicht persönlich angeschrieben werden, sondern einem Link zum Fragebogen auf einer Internetseite folgen, ist oft unklar, von welcher Grundgesamtheit der Forscher ausgehen kann, so dass die Repräsentativität der Befunde in Frage steht.

Die Beurteilung der telefonischen Befragung liegt zum Teil in der Mitte, z. B. Aufwand und Kosten, die Ausschöpfung oder auch den Interviewereinfluss betreffend (der Befragte hört, aber sieht den Interviewer nicht). Zu beachten ist, dass visuelle Unterstützungen hier nicht ohne weiteres einsetzbar sind, z. B. Karten bei langen Listen von Antwortmöglichkeiten. Der Anteil der telefonischen sowie der Online-Befragungen hat im Zeitverlauf zugenommen, die Sozialforschung konkurriert hier mit der Marktforschung um Zielgruppen.

Verzerrungsgefahren

Verzerrungsquellen in der standardisierten Befragung:

 Befragungssituation

 Befragtenmerkmale

 Fragebogen: Formulierungen, Reihenfolge, Ge staltung

Neben Verzerrungsgefahren (die die Gütekriterien Zuverlässigkeit und Gültigkeit beeinträchtigen), die von der Befragungssituation ausgehen, gibt es auch solche, die sich entweder auf Merkmale des Befragten oder auf den Fragebogen beziehen. Zu den Befragtenmerkmalen, die die »richtige« Antwort gefährden, gehören etwa die Tendenz zu sozialer Erwünschtheit (man neigt z. B. dazu, eher zu wenig als zu viel Zeit für Fernsehen anzugeben) oder zu Response-Sets, also Antworttendenzen, die unabhängig vom Inhalt der Frage sind (z. B. in Einstellungsskalen keine Extremkategorien ankreuzen).

Solche Reaktionen sind eng verknüpft mit den Formulierungen und ihrer Reihenfolge im Fragebogen sowie ggf. dessen visueller Gestaltung. Ziel ist, dass die Fragen und Antwortmöglichkeiten von allen Befragten in gleicher Weise verstanden werden. Es ist z. B. zu beachten, dass die Formulierungen einfach und eindeutig sein sollten (was in der Umsetzung nicht so banal ist, wie es sich anhört), dass sie Unterstellungen und soziale Erwünschtheit vermeiden [47](z. B. wäre die Formulierung: »Glauben Sie noch an …« zu vermeiden). Reihenfolgeeffekte sind in Tests nachgewiesen worden sowohl für einzelne Fragen (und Antwortkategorien) als auch für die gesamte Anlage des Fragebogens (sind die Eingangsfragen z. B. interessant und leicht zu beantworten?).

Richtet sich die Befragung an eine bestimmte Zielgruppe, sind zudem deren Spezifika zu berücksichtigen, wenn z. B. Kinder, Menschen mittleren Alters oder Ältere befragt werden. Besondere Anforderungen stellen Längsschnittuntersuchungen (haben z. B. Fragen nach dem Geschmack nach zehn Jahren noch die gleiche Bedeutung?) und internationale Vergleichsstudien (die sorgfältige Übersetzungen erfordern). Ein Pretest mit wenigen Befragten kann Verzerrungen durch den Fragebogen teilweise erkennen, ein »perfekter« Fragebogen ist jedoch kaum realistisch. Die Methodenforschung untersucht kontinuierlich Verzerrungsgefahren und Möglichkeiten ihrer Vermeidung.

Schließlich ist darauf aufmerksam zu machen, dass eine Untersuchung nicht mit der Fragebogenerstellung beginnen darf. Ein systematischer Bezug zu Hypothesen und ihrer Operationalisierung ist notwendig, um die Forschungsfrage nicht aus dem Auge zu verlieren und um in der Auswertungsphase keinen statistischen Datenfriedhof zu erzeugen.

Nicht standardisierte Befragungen in der qualitativen Forschung

Für Befragungen in der qualitativen Forschung hat sich die englische Bezeichnung Interviews durchgesetzt. Qualitative Interviews werden zumeist einmalig, mit einem Interviewpartner und face-to-face durchgeführt, d. h. Interviewer/in und Befragte/r begegnen sich persönlich und führen ein Gespräch. Davon wird eine Tonaufnahme, manchmal auch eine Bild- und Tonaufnahme angefertigt, die wortgetreu, teilweise auch parasprachliche Äußerungen berücksichtigend, verschriftet und dann ausgewertet wird. Die Dauer von Interviews variiert stark, vor allem wegen der unterschiedlichen Erzählbereitschaft von Befragten; 60 bis 90 Minuten sind eine gängige Länge.

Als Erhebungsinstrument ist das qualitative Interview – im Gegensatz zur quantitativen Befragung – alltäglichen Gesprächssituationen nachmodelliert und macht sich deren grundlegende Eigenschaften, wie z. B. die Orientierung am Kenntnisstand und am Informationsinteresse des Gegenübers, zunutze. Der/die Befragte kann in qualitativen Interviews auf die offen gestellten Fragen frei formulierend und ausführlich antworten, kann Themen nach eigenem Ermessen ansteuern und verknüpfen, kann auch Fragen an die Interviewerin richten und über die gestellten Fragen selbst sprechen. Das Gesprächsverhalten des Interviewers hingegen ist im Gegensatz zu alltäglichen Gesprächen sehr auf das möglichst offene, möglichst wenig steuernde Fragenstellen hin vereinseitigt, um die Einflussnahme auf die Darstellung des Befragten zu minimieren.

Diese Erhebungsform setzt zwei zentrale Anforderungen einer qualitativen Sozialforschung um: »Offenheit« – was bedeutet, dass zuerst die Bedeutungsstrukturierung des Befragten möglichst vollständig erhoben und rekonstruiert wird, bevor dann eine theoretische Strukturierung in wissenschaftlicher Perspektive erfolgt – und »Kommunikation« – was bedeutet, dass zur Erhebung von bedeutungsstrukturierten Daten eine Kommunikationsbeziehung eingegangen werden muss, die den Kommunikationsregeln des Interviewpartners und nicht denen der wissenschaftlichen Forschung folgt (Hoffmann-Riem 1980, 343 f. und 346 f.).