image

Bibliographische Information der Deutschen Bibliothek

Die deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie; detaillierte bibliographische Daten sind im Internet über http://dnb.ddb.de abrufbar.

Friedrich Krotz:

Neue Theorien entwickeln.

Eine Einführung in die Grounded Theory, die Heuristische Sozialforschung und die Ethnographie anhand von Beispielen aus der Kommunikationsforschung

Köln : Halem, 2019

1. Auflage: 2005

2. Auflage: 2019

Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme (inkl. Online-Netzwerken) gespeichert, verarbeitet, vervielfältigt oder verbreitet werden.

© 2019 by Herbert von Halem Verlag, Köln

ISBN (Buch) 978-3-86962-452-5

ISBN (ePDF) 978-3-86962-453-2

ISBN (ePUB) 978-3-86962-454-9

Den Herbert von Halem Verlag erreichen Sie auch im Internet unter http://www.halem-verlag.de

E-Mail: info@halem-verlag.de

SATZ: Herbert von Halem Verlag

DRUCK: docupoint GmbH, Magdeburg

GESTALTUNG: Claudia Ott Grafischer Entwurf, Düsseldorf

Copyright Lexicon ©1992 by The Enschedé Font Foundry.

Lexicon® is a Registered Trademark of The Enschedé Font Foundry.

Friedrich Krotz

Neue Theorien entwickeln

Eine Einführung in die Grounded Theory, die Heuristische
Sozialforschung und die Ethnographie anhand von
Beispielen aus der Kommunikationsforschung

image

Für Petra, Janosch und Nicolas

Inhalt

Vorwort zur zweiten Auflage

Einführung:
Von den Forschungsverfahren der Sozialwissenschaften und vom Ziel dieses Buches

I.GRUNDLAGEN EINER THEORIE THEORIEGENERIERENDER FORSCHUNG

1.Annäherungen: Empirie als Rechtfertigung für Theorie und die empirisch gestützte Konstruktion von Theorie als Typus empirischer Forschung

1.1Empirie als die Basis von Sozialwissenschaft

1.2Basisbegriffe und Schritte empirischer Forschung

1.3Beschreibungen, Entwicklung und Test von Theorien als Ziel empirischer Forschung

1.4Die drei Verfahren theoriegenerierender Forschung: ein erster Überblick

1.5Theoriegenerierende Forschung und qualitative Forschung: Ähnlichkeiten und Besonderheiten

1.6Theoriegenerierende Forschung und quantitative Forschung: Kontraste und Voraussetzungen

1.7Ergänzung: Typen von Theorien und das besondere Ziel theoriegenerierender Forschung

2.Basisannahmen theoriegenerierender Forschung

2.1Der kommunikativ vermittelte Charakter der Realität und Kommunikation als Voraussetzung wissenschaftlicher Erkenntnis

2.2Wissenschaftliche Methoden und Verfahren als Ausdifferenzierung von Alltagsverfahren

2.3Der Pragmatismus als Basis theoriegenerierender Forschung

2.4Die Organisation menschlichen Erlebens: Experten, Perspektivität und Praktiken

2.5Formale Logik und Dialektik als Hilfswissenschaften für theoriegenerierende Forschung

2.6Zusammenfassungen und Ergänzungen

3.Theoriegenerierende Forschung als praktischer Prozess

3.1Vom Phänomen zur Beschreibung und zur Theorie:
Die Offenheit des Forschungsgegenstandes

3.2Vom Vorverständnis zum Wissen:
Die Offenheit von Forscherin und Forscher

3.3Forschung als Dialog:
Die Spirale der wissenschaftlichen Erkenntnis

3.4Was heißt: Daten erheben und protokollieren?

3.5Was heißt: Protokolle lesen und Daten auswerten?

II.DIE VERFAHREN THEORIEGENERIERENDER FORSCHUNG: GROUNDED THEORY, HEURISTISCHE SOZIALFORSCHUNG UND ETHNOGRAPHIE

4.Grounded Theory:
Die datennahe Generierung von Theorien

4.1Die Grundidee der Grounded Theory

4.2Forschung als spiralförmig angelegte Folge von Schritten, die zu Beschreibung und Theorie führen

4.3Codieren als zentrale Aktivität der Grounded Theory

4.4Memos als Hilfsmittel und die Formen konstruierter Theorie

4.5Die Auswahl der Befragten und die Sättigung der Erfahrungen als Abbruchkriterium des Forschungsprozesses

4.6Ergänzende Anmerkungen

4.7Beispiele: Wie starte ich eine Untersuchung, wie bilde ich Kategorien?

5.Heuristische Sozialforschung: den Gegenstand von allen Seiten betrachten und nach den Gemeinsamkeiten analysieren

5.1Die Entstehung der Heuristischen Sozialforschung und ihre Hintergründe

5.2Forschung als Dialog

5.3Die Regeln der Heuristischen Sozialforschung

5.4Das Prinzip der Auswertung: Analyse auf Gemeinsamkeiten

5.5Was sind Gemeinsamkeiten und wie findet man sie?

5.6Der Ablauf Heuristischer Forschung: Die Auswahl der Befragten und ein Kriterium für ein Ende der Untersuchung

5.7Formen generierter Theorien und Überlegungen zur Qualität von Forschung nach der Heuristischen Sozialforschung

5.8Beispiele und Anmerkungen

6.Ethnographie als Rahmenstrategie zur Generierung von Theorien

6.1Warum noch ein Verfahren?

6.2Was ist Ethnographie?

6.3Anwendungsbeispiel: Ethnographie in der kulturorientierten Kommunikationsforschung und in Bezug auf Internetkulturen

6.4Zum Charakter ethnographischer Forschung im Zusammenhang mit theoriegenerierenden Verfahren

6.5Grundregeln und Phasen ethnographischer Forschung

6.6Ergänzungen und Vertiefungen

7.Die Qualität qualitativer Forschung und eine Ermutigung

7.1Die Qualität qualitativer Forschung

7.2Eine Ermutigung

Literatur

Index

VORWORT ZUR ZWEITEN AUFLAGE

Seit dem Erscheinen der ersten Auflage der vorliegenden Monographie hat sich manches geändert, was die Sozialwissenschaften, die in ihrem Rahmen betriebene Forschung und die dabei verwendeten Methoden angeht: Einmal haben sich inzwischen so gut wie alle Sozialwissenschaften darauf eingestellt, dass sich im Kontext des Wandels der Medien ihr Gegenstandsbereich verändert hat und weiter verändern wird. Zweitens wandeln sich im Zusammenhang damit die Methoden und Verfahren der wissenschaftlichen Forschung, weil sich die Fragestellungen und Zielsetzungen sowie die leitenden Interessen und das Vorgehen und insgesamt die Bedingungen empirischer Arbeit zumindest teilweise verändern. Drittens scheinen die oft so strikt von einander getrennten akademischen Disziplinen wieder ihren Nachbarwissenschaften mehr Beachtung zu schenken, weil sie alle vor ähnlichen Problemen stehen: es sind ja nicht nur die durch den Medienwandel induzierten Veränderungen, sondern auch andere langfristige und übergreifende Metaprozesse wie Globalisierung und Ökonomisierung, die alle Disziplinen gleichermaßen betreffen. Diese drei Entwicklungen sollen hier in Hinblick auf die Positionierung des Bandes Neue Theorien entwickeln kurz skizziert werden.

Am deutlichsten zeigt sich die erste der genannten Entwicklungen, nämlich der Wandel der Gegenstandsbereiche der einzelnen Sozialwissenschaften und, darüber hinaus, auch vieler weiterer akademischer Disziplinen wie etwa der Psychologie, Medizin, Pädagogik, oder der Religionswissenschaften. Sie alle müssen sich mit dem Aufkommen der Computer, mit neuen Medien und Kommunikationsformen und allgemeiner ausgedrückt mit neuen Formen symbolischer Operationen beschäftigen, die in computerbasierten Netzen stattfinden oder darauf bezogen werden. Denn diese technischen Neuerungen werden zunehmend in immer mehr Bereiche des menschlichen Lebens eingeführt und so entsteht eine digitale, computergesteuerte Infrastruktur, innerhalb der immer mehr symbolische Operationen stattfinden. Zu diesen symbolischen Operationen gehört auch das Kommunizieren der Menschen, die Angebote der alten und neuen Medien, aber auch Maschinenkommunikation: die Verarbeitung von etwa Messwerten oder die Steuerung von Maschinen.

Umgekehrt heißt das, dass immer mehr Menschen in ihrem Alltag und – beispielsweise – beim Erleben und Gestalten ihrer sozialen Beziehungen computerbezogene Kommunikations- und Handlungsformen verwenden, dass Unternehmen, Gruppierungen aller Art, Organisationen und Institutionen in ihren internen wie auch extern gerichteten Arbeitsformen Computer einsetzen, und dass sich so die großen Teilsysteme von Kultur und Gesellschaft immer mehr um diese Infrastruktur herum organisieren – die Wirtschaft und die Politik, die Arbeit und die Demokratie, die Familien und die Bildungseinrichtungen, die Gesundheitsversorgung und die Religion und so weiter. Beispielsweise verändern sich in der Politik die Art und die Inhalte der öffentlichen Diskurse durch den Rückgang der klassischen tagesaktuellen Medien und die sogenannten Sozialen Medien, aber auch die Organisation und die Funktionsweisen der politischen Parteien, der Wahlkämpfe, der Parlamente, der Bürokratie und so weiter. Ebenso relevante Veränderungen müssen auch die anderen Disziplinen berücksichtigen – entweder sind sie dort schon angekommen, oder sie nähern sich mehr oder weniger unaufhaltsam. In der Konsequenz verschieben sich auch gesellschaftliche Traditionen, Sozialisationsformen, Relevanz- und Machtstrukturen.

Wichtig ist dabei, diesen Wandel nicht nur technisch als digitalen Wandel zu verstehen. Vielmehr gibt es auf der einen Seite einen technischen Wandel, der vor allem durch die Potenziale der programmierbaren Maschine Computer und deren universelle Anwendbarkeit sowie deren Vernetzungen geprägt und bestimmt ist. Aber wie diese Techniken sich auf Arbeit und Freizeit, Alltag und Gesellschaft auswirken, ist nicht technisch determiniert und keine lineare Wirkung dieser Technik; die Konsequenzen hängen vielmehr davon ab, wie diese Techniken in die Gesellschaft hinein implementiert und organisiert werden – und vor allem dieser Wandel ist von den Menschen durch ihre Nutzung gestaltbar und durch politische und gesellschaftliche Entscheidungen formbar.

Parallel zur Transformation der Technik muss man folglich eine kontextuelle Transformation der Lebensbereiche der Menschen in den Blick nehmen. Dieser doppelte Wandel wird beispielsweise von der Mediatisierungsforschung untersucht, die sich mit dem Wandel von Alltag, Kultur und Gesellschaft im Kontext des Wandels der Medien theoretisch wie auch empirisch beschäftigt. Dabei impliziert der Medienbegriff, dass es gerade nicht nur um Technik, sondern auch um kulturelle Nutzungsformen und gesellschaftliche Gestaltung geht. Strukturen und Prozesse von und in Alltag, Kultur und Gesellschaft heißen danach mediatisiert, wenn man sie im Verlaufe dieses allgemeinen Wandels nicht mehr ohne Berücksichtigung der Rolle der computergesteuerten Medien theoretisch verstehen oder sinnvoll untersuchen kann. Mediatisiert im Rahmen der bereits vorhandenen computerbasierten Infrastruktur für symbolische Operationen ist heute die Familie, das Aufwachsen der kommenden Generationen, die politische Öffentlichkeit, der Konsum oder auch der Fußball, um nur einige Beispiele zu nennen. Und auf derartige Entwicklungen stellen sich immer mehr auch die Wissenschaften ein, die früher auch selbst im Hinblick auf die Druckmaschine und Papier mediatisiert stattfanden, jetzt aber auch zunehmend im Hinblick auf die computergesteuerte Infrastruktur operieren – sie sind selbst mediatisiert und befassen sich mit mediatisierten Gegenstandbereichen.

Das bedeutet insbesondere, dass ihre bisher gültigen Einsichten und Systematiken mindestens irritiert, manchmal sogar aufgebrochen werden, wenn sich zunehmend auch Formen wie augmented Reality oder sogenannte Künstliche Intelligenz in das Geschehen einmischen, aber auch, dass Politik, Zivilgesellschaft und Wirtschaft zunehmend andere Leistungen von den akademischen Wissenschaften erwarten und nachfragen werden. Vermutlich ist noch nie eine solche Vielzahl von Disziplinen gleichzeitig vor derartig bedeutsame neue Fragen gestellt worden, die sich auf ihren jeweiligen Gegenstandsbereich beziehen und sich doch gleichzeitig disziplinübergreifend ähneln. In Anlehnung an Thomas Kuhn kann man zumindest langfristig sogar fragen, ob die akademischen Disziplinen dies im Rahmen ihrer normalen Paradigmen werden bewältigen können oder ob sie nun in grundlegendere Veränderungsbewegungen geraten. Insofern ist dies für alle betroffenen Wissenschaften aber natürlich auch eine spannende neue Zeit, in der sie ihre alten Konzepte überprüfen und neue Perspektiven im Hinblick auf ihre grundlegenden Fragestellungen entwickeln müssen und können. Insbesondere geht es auch darum, dass vielfältige neue Theorien, die ja den Kernbestand wissenschaftlichen Wissens ausmachen, gebraucht werden.

Die hier in der zweiten Auflage vorgelegte Monographie geht auf diesen Wandel durch vier Besonderheiten ein: Indem sie an dem dringenden Bedarf nach neuen Theorien ansetzt, die auf empirischer Basis systematisch entwickelt werden können. Indem sie die traditionelle akademische Zweiteilung von hier Theorie, dort Methoden vieler Disziplinen überwindet und Methoden von dem Bedarf an Theorie her denkt und einführt. Indem sie herausarbeitet, dass die Fragen und Probleme, denen sich Wissenschaft widmet, letztlich immer in Alltag und Gesellschaft angesiedelt sind, auch wenn sie grundlagentheoretisch bearbeitet werden müssen, und damit die oft konzeptionell gedachte Abgrenzung von Wissenschaft von der gesellschaftlichen Wirklichkeit und dem Leben und dem Alltag der Menschen zwar nicht aufhebt, aber neue konzeptionelle Bewältigungsformen anbietet. Und schließlich, indem sie auch darauf Wert legt, wissenschaftliche Arbeit wissenschaftstheoretisch zu begründen, denn nur durch solche Begründungen unterscheidet sich wissenschaftliches Wissen von anderem Wissen.

Die damit zusammenhängenden Irritationen für die herkömmliche Wissenschaft betreffen natürlich auch Forschungsmethoden, die zweite eingangs genannte Entwicklung im Zusammenhang mit den heutigen Mediatisierungsprozessen. Dabei muss der Begriff der Methoden weit gefasst werden – es geht auch um empirisches Vorgehen, um wissenschaftstheoretische Rechtfertigungen, um die Formen der Darstellung wissenschaftlicher Erkenntnisse, die sich verändern.

Dieser Wandel betrifft die Methoden auch dadurch, dass sich die Arbeitsbedingungen von Wissenschaftlerinnen und Wissenschaftlern verändern. Es verändern sich die Formen der Datenerhebung wie auch die Möglichkeiten der Datenverarbeitung, etwa durch Hochleistungscomputer sowie durch weiter entwickelte Softwareumgebungen und komplexe Hilfsprogramme, die zur Verfügung stehen. Mit dem Smartphone ist auch immer ein Gerät für vielfältige wissenschaftliche Operationen präsent, mit dem Internet besteht die Möglichkeit, dass sich die früher eher regional oder national begrenzten Horizonte wissenschaftlicher Diskurse viel leichter ausweiten usw.

Von diesen Veränderungen ist insbsondere die quantitative Sozialforschung betroffen. Ebenso wie früher das Telefon haben das Internet und seine daran angeschlossenen Endgeräte wie das Smartphone die Möglichkeit der Datenerhebung im Falle quantitativer Forschung erweitert – Datenerhebung kann heute auch Online stattfinden. Beim Übergang von Face-to-Face-Interviews zu postalischen oder telefonischen Befragungen traten dann allerdings auch eher unbeabsichtigte Veränderungen auf – die eigentlich für quantitative Erhebungen wichtige Standardisierung der Erhebungssituation war nicht mehr gewährleistet, sie konnte auch nicht mehr kontrolliert werden. Mit der Online-Datenerhebung kam dann noch das Problem dazu, dass die Zahl repräsentativer Studien kleiner wird. Repräsentativität erst ermöglicht es ja, unter Abschätzung eines Irrtumsrisikos die Ergebnisse von einer Auswahl, also von einem Teil der Grundgesamtheit, auf die Grundgesamtheit insgesamt zu übertragen. Mit diesem Verlust entstehen Gültigkeitsprobleme, die bisher, soweit zu sehen ist, nicht überwunden werden konnten, vielmehr scheint die Repräsentativität von Auswahlen der quantitativen Forschung aus dem Blick zu geraten.

Heute kommen nun weitere Veränderungen wie BIG DATA, Datafizierung und die sogenannte Künstliche Intelligenz auf, die Empirie verändern. Sie setzen daran an, dass immer mehr dessen, was in der Welt geschieht, sich in irgend einer Weise in die computerbasierte Infrastruktur für symbolische Operationen hinein abbildet und von entsprechender Software systematisch gesammelt, gespeichert und für eine Verwendung welcher Art auch immer aufbereitet wird. Der damit verbundene Reiz der unübersehbar vielen Verhaltensdaten, die technisch zur Verfügung stehen, legt es nahe, diese zu analysieren und explizit oder implizit davon auszugehen, dass die damit erzielte Ergebnisse eigentlich die ganzen Grundgesamtheiten beträfen und Repräsentativität von daher nicht mehr erforderlich sei – wenn sich BIG DATA Forscher zu solchen Fragen überhaupt äußern. Aber auch das wirft wissenschaftstheoretisch bisher nicht beantwortete Fragen nach der Gültigkeit auf, die nicht nur mit dem Hinweis auf eine mögliche praktische Verwendbarkeit beantwortet werden können. Denn die Abweichungen von bisher üblichen theoretisch anvisierten Grundgesamtheiten wie »alle Deutschen zwischen 14 und 65 Jahren«, die entstehen, wenn man sich auf technisch erzeugte Verhaltensdaten beruft, lassen sich kaum statistisch klären. Zudem ist unklar, was der Wechsel von Befragungs- oder Beobachtungsdaten zu Verhaltensdaten, über deren Zustandekommen, was Erhebungszeitpunkte oder Erhebungssituationen angeht, man gar nichts mehr weiß, zu bedeuten hat – führt die via Fragebogen mögliche Rekonstruktion etwa eines Einkaufsprozesses zu Ergebnissen, die den Erkenntnissen gleichen, die man aus entsprechenden Verhaltensdaten gewinnen kann? Und schließlich ist auch offen, wie die mit Hilfe von Algorithmen auf Basis sogenannter künstlicher Intellgenz gewonnenen Ergebnisse im Einzelfall gewonnen wurden und in welchem Verhältnis derartige komplexe maschinelle Auswertungen zu den traditionellen statistischen Auswertungen stehen.

All dies ist wahrscheinlich für Marktforschung oder für direkt auf Einflussnahm und Manipulation angelegte Interventionen in den Netzen etwa politischer Art, wie sie von Cambrigde Analytica möglich gemacht wurden, kein wesentliches Problem. Denn hier kommt es auf Optimierungsprozesse auf Basis mathematisch gefasster sozialer Daten an. Wie jedoch akademisch ausgerichtete Forschung die Qualität und Vergleichbarkeit ihrer Ergebnisse sichern will, ist erst einmal offen. Sie kann zwar, sofern die kommerzielle Industrie Wissenschaftlern Zugang zu ihren gigantischen Datensammlungen gewährt, beispielweise menschliches Interaktionsverhalten oder gesellschaftliche Diskurse mit Hilfe viel umfassenderer Datenbasen untersuchen, aber wie sie die Gültigkeit ihrer Resultate wissenschaftstheoretisch begründen will, muss erst einmal noch geklärt werden. Dies auch deswegen, weil keineswegs klar ist, wie sich Beschreibungen kultureller und sozialer Phänomene und Prozesse verändern, wenn man sie auf Basis der Daten beschreibt und analysiert, die über die elektronischen Abbildungen irgendwelchen Geschehens im Netz gewonnen werden können. Die Theorie jedenfalls bleibt dadurch wahrscheinlich wohl auf der Strecke, weil sie zu diesen datenbezogenen Vorgehensweisen eigentlich nichts beizutragen hat.

Die Probleme der sich wandelnden quantitativen Forschung liegen also im Bereich der wissenschaftstheoretischen Begründung, der Datenorientierung zu Lasten einer Theorieorientierung und in einer unverstandenen und nicht reproduzierbaren Datenselektion durch die Technik und deren Auswertung. Vermuten kann man, dass die quantitative Forschung unter diesen Bedingungen zunehmend mit Hilfe von sogenannter Künstlicher Intelligenz (KI) immer weiter standardisiert wird, sodass nur noch das systematische Ausformulieren einer Forschungsfrage sowie die Interpretation von Ergebnissen als menschliche Aktivitäten übrig bleiben. Zumindest zeichnet sich dies in der Markforschung ab. Es wird dann wohl auch nicht mehr lange dauern bis KI sukzessiv auch diese Aufgaben übernimmt. Von daher lässt sich sogar weitergehend vermuten, dass sich sogar die Fragestellungen, mit denen sich die quantitativ gestützte Wissenschaft beschäftigt, zumindest teilweise so verschieben werden, dass eher Fragen untersucht werden, die mit Datenanalysen beantwortet werden können, dass also der theorielose Empirismus in den Sozialwissenschaften voranschreitet, der Theorie als eine Sammlung von Hypothesen missversteht.

Die qualitative Forschung bleibt von einer Umorientierung durch immer mehr Daten weitgehend unberührt, und auch der Wandel der Medien durch den Computer wirkt sich erkennbar nicht auf die Leitfrage qualitativ angelegter Forschung aus. Denn sie orientiert sich in Anlehnung an Max Weber vor allem am sozialen Sinn menschlichen Handelns, der gerade mit Variablen nicht operationalisiert werden kann, aber dennoch für das menschliche Handeln konstitutiv ist. So muss man zunächst einmal vermuten, dass sich qualitative und quantitative Forschung in unterschiedliche Richtungen ausdifferenzieren werden und dass infolgedessen die Idee, auf mixed methods zu setzen, in Zukunft eher seltener realisiert wird. Mixed methods-Studien, die also sowohl qualitative als auch quantitative Verfahren benutzen, waren ja auch bisher wissenschaftstheoretisch und was ihren Erkenntniswert angeht, nicht recht überzeugend. Denn die jeweiligen Verfahren wurden auf unterschiedliche Forschungsteilfragen angewandt und die zentralen Unterschiede – die Konzentration auf das Messen mit seinen Bedingungen und auf funktionale Beziehungen auf der Basis von Statistik einerseits und die Orientierung an subjektivem Sinn und prinzipiell offener Kommunikation andererseits – wurden so einfach nur überspielt. Möglicher Weise werden sich in der Folge nun auch die einzelnen Disziplinen in verschiedene Richtungen ausdifferenzieren, in denen entweder qualitative oder quantitative Forschung betrieben wird. Denn letztlich passen ja auch die mit qualitativer Forschung gewonnenen Theorien, die, wie oben gesagt, auf Sinnrekonstruktion und Kommunikation beruhen, mit quantitativ begründeten Theorien, die mit Messoperationen und zukünftig als objektivierte Abbilder sozialen Geschehens erhoben werden und die Zusammenhänge als funktionale Relationen fassen, nicht ohne Weiteres zusammen. Eine Ausdifferenzierung in eher theorielose Datenanalysen und systematisch konstruierte Theorien wird diesen Gegensatz wohl verstärken.

Das bedeutet freilich nicht, dass sich nicht auch die qualitative Forschung verändern wird. Denn dort werden auch weiterhin quantifizierbare Ergebnisse in einem aber bescheidenen Ausmaß verwendet werden. Auch gab und gibt es ja Versuche, quantitative Daten qualitativ auszuwerten, ohne erst einmal gigantische Rechenoperationen darauf anzuwenden. Zudem werden wohl auch immer bessere Softwareprogramme entwickelt werden, die qualitative Auswertungen unterstützen. Vermutlich wird sich die qualitative Forschung, die jetzt schon aus zum Teil sehr unterschiedlichen Forschungsverfahren besteht, auch selbst weiter ausdifferenzieren. Vor allem aber ist anzunehmen, dass sich qualitative Forschung leichter daran anpassen kann, dass Alltag, Kultur und Gesellschaft immer weniger stabil sind und immer mehr als Prozesse verstanden und untersucht werden müssen. Dies liegt einerseits daran, dass, wie der vorliegende Band zeigt, qualitative Forschung immer auch als variabler Prozess begriffen wurde und wird. Und andererseits daran, dass, wie ebenfalls in dem vorliegenden Band argumentiert wird, die qualitativen Verfahren letztlich Spezialisierungen und Systematisierungen von Alltagserkundungsverfahren sind und qualitative Forschung nicht davon ausgeht, dass nur und ausschließlich formale Logik und Mathematik zulässige Hilfswissenschaften für die Erkenntnis von sozialer Realität sind. Insofern bleibt der qualitativen Forschung der Alltag als Ressource für Methoden und Modifikationen von Methoden erhalten. Das zeigt sich auch jetzt schon in vielfältigen Neuerungen wie etwa der Wiederbelebung der Aktionsforschung in der Medienforschung, die ihre Ergebnisse in erster Linie zur Ermächtigung der Betroffenen verwendet, oder der Wiederbelebung der (dialogischen) Introspektion, die an der Reflexion des Einzelnen anknüpft, und eben auch an dem vorliegenden Band, der Methoden von der Notwendigkeit von Theorien her denkt, also die Ressource Alltag auch nutzt, indem er Wissenschaft als Einrichtung mit einer ganzheitlichen Perspektive versteht.

Integrativ, was den Gegensatz zwischen qualitativer und quantitativer Forschung angeht, kann es in Zukunft möglicher Weise sein, dass sich qualitative Theoriekonstruktion, wie sie in diesem Band vorgestellt wird, zwar bisher auf datennahe und formale Theorien konzentriert, dass aber mit der Grounded Theory auch Überlegungen vorliegen, wie man aus datennahen Theorien zu formalen Theorien gelangen kann. Vielleicht kann da auch die ausgesprochen breit anwendbare heuristische Forschung weiterhelfen, wie sie hier vorgestellt wird, und die Ethnographie hat sich schon immer aller Daten bedient, die ihr zugänglich waren, wenn es um definierte Forschungsziele ging. Vielleicht lassen sich also die in dem vorliegenden Band dargestellten Überlegungen zur Konstruktion von Theorien, die auf qualitativer Sozialforschung beruhen, weil es im quantitativen Bereich derartiges nicht gibt, ja auch für eine Konstruktion datennaher und formaler Theorien verwenden, die auf quantitativen Daten beruhen.

Abschließend lässt sich im Hinblick auf die eingangs genannte zweite Entwicklungslinie der Methoden sagen, dass es – neben den bereits genannten Überlegungen – eine Grundidee des vorliegenden Bandes ist, angesichts der rapiden Veränderung der Lebensbedingungen der Menschen im Zusammenhang mit dem Medienwandel das Entwickeln neuer Theorien zu unterstützen und in dafür angemessene Methoden einzuführen. Dies geschieht auf Basis eines sinnbasierten Menschenbildes, wie es in qualitativer Forschung prinzipiell unterstellt ist.

Die dritte zu konstatierende Entwicklung beinhaltet, dass sich die einzelnen sozialwissenschaftlichen Disziplinen in ihrer Abgrenzung weiterentwickeln, indem sie ihre Nachbarwissenschaften in den Blick nehmen und so thematisch neue Gemeinsamkeiten erkennen oder zulassen und zugleich ihr Instrumentarium an Methoden erweitern und ausdifferenzieren. So erweitern etwa Volkskunde, Ethnologie und Sozialanthropologie ihre Perspektive, wenn sie die Ethnographie des Internets und damit einer technisch erzeugten Welt betreiben, befassen sich Soziologen mit ethnographischer Forschung, wo kulturelle Differenzen zu beachten sind, berücksichtigen Politikwissenschaftlerinnen die Bedeutung von Medien und kommunikations- bzw medienwissenschaftliche Forschung dazu, entdeckt die Medizin, dass sie es auch mit Interaktionen von Menschen miteinander zu tun hat, beschäftigt sich Religionswissenschaft damit, was es für ein religiöses Menschenbild bedeutet, wenn es jetzt auch intelligent genannte Roboter gibt, und damit, was sich jenseits der offiziellen Kirchen an religiösen Aktivitäten und Vorstellungen entwickelt – und so weiter.

Die damit angesprochenen Öffnungsprozesse zeigten sich beispielhaft auch in dem DFG-Schwerpunktprogramm »Mediatisierte Welten«, das von 2010 bis 2017 von der Universität Bremen aus koordiniert wurde. Im Gegensatz zu vergleichbaren anderen Programmen kamen die meisten Forscherinnen und Forscher in diesem eigentlich kommunikationswissenschaftlich beantragten Programm nicht aus der Kommunikationswissenschaft, sondern aus der Soziologie, und trotz einer thematisch relativ engen Auswahl geförderter Projekte durch die entscheidende DFG-Kommission waren zudem literaturwissenschaftlich basierte Medienwissenschaft, Pädagogik, Informatik sowie Musikwissenschaft vertreten. Nahezu alle Projekte arbeiteten mit qualitativen Methoden, weil sich damit angesichts der erst einmal wenigen gesicherten Einsichten und des ständigen Wandels im Forschungsfeld eben datengestützte Theorien entwickeln lassen. In die gleiche Richtung weist etwa auch die Verwendung des kommunikationswissenschaftlichen Mediatisierungskonzepts in zahlreichen nicht sozialwissenschaftlichen Disziplinen. Solche Entwicklungen harren jedoch einer systematischen Untersuchung. Auch wäre genauer herauszufinden, unter welchen Bedingungen akademische Disziplinen eher dazu neigen, sich abzuschließen bzw. sich auf traditionelle Grundlagen zurückzubesinnen.

Zusammenfassend lässt sich plausibel behaupten, dass das hier in zweiter Auflage erscheinende Buch und das darin erarbeitete Verständnis von Forschung zur weiteren wissenschaftlichen Entwicklung unter Mediatisierungsbedingungen beitragen können. Es scheint immer noch das mehr oder weniger einzige Methodenbuch zu sein, dass Methoden nicht grundsätzlich als eine Säule von Wissenschaft in den Blick nimmt, sondern disziplinübergreifend danach fragt, mit welchen Methoden man hilfreiche Theorie mit Bezug auf empirische Daten entwickeln kann. Dies ist vor allem auch dann nötig, wenn Wissenschaft inmitten eines großen Umwälzungsprozesses ohne zu wissen, wohin die Reise geht. Denn unter solchen Bedingungen muss Wissenschaft die historischen Kontinuitäten und das wesentliche Neue der Entwicklung herausarbeiten und einander gegenüber stellen, die bisherigen Entwicklungen kritisch analysieren und der Zivilgesellschaft sowie dem Staat theoretisch eingeordnete und damit reflektierte und verstandene Einblicke ermöglichen, die dazu beitragen, die Entwicklung zu prognostizieren und zu gestalten. Denn mit den derzeitigen Entwicklungen, die entscheidend von Technik und Industrie geprägt sind, wird auch über die Zukunft der Menschheit entschieden.

Damit sind auch einige Alleinstellungsmerkmale des vorliegenden Bandes genannt, die eine zweite Auflage sinnvoll machen. Dafür wurde neben diesem Vorwort der Text kritisch durchgesehen und ggf. verbessert und ergänzt, zudem wurden einige Literaturhinweise aktualisiert. Ich danke dem Verlag, dass er diese zweiten Auflage angeregt hat und diesen Band in seiner Besonderheit weiterhin zugänglich hält.

Hamburg, im Februar 2019

Friedrich Krotz

EINFÜHRUNG:
VON DEN FORSCHUNGSVERFAHREN DER SOZIALWISSENSCHAFTEN UND VOM ZIEL DIESES BUCHES

Wir leben in einer Welt, die sich immer schneller verändert. Globalisierung, Individualisierung, Ökonomisierung und Mediatisierung sind einige der vielen Stichworte, unter denen diese Veränderungen untersucht und diskutiert werden. Parallel zum sozialen und kulturellen Wandel verändern sich die Gegenstandsbereiche der einzelnen Sozialwissenschaften, die vor immer neue Fragen gestellt werden, während gleichzeitig die Ansprüche an die unmittelbare Verwendbarkeit wissenschaftlicher Erkenntnisse größer werden. Besonders deutlich ist dies etwa in der Kommunikationswissenschaft, die sich verstärkt mit digitalen Medien und mobilem Telefonieren, mit Computerspielen und Roboterkommunikation beschäftigen sollte, während gleichzeitig ihr klassisches Thema, das Feld öffentlicher Kommunikation als Basis von Demokratie, ebenfalls immer mehr Aufmerksamkeit verlangt. Aber auch in den anderen Sozialwissenschaften tun sich immer neue Forschungsbereiche auf, die theoretisch und empirisch bearbeitet werden müssen – von der Ethnologie bis zur Politikwissenschaft, von der Psychologie bis zur Soziologie. Sie benötigen neue und gute Theorien, um diese sich ändernde Welt zu beschreiben, zu erklären, zu verstehen und um sie handhabbar zu machen.

Die Frage, wie man1 sozialwissenschaftliche Theorien sinnvoll entwickelt und, allgemeiner, wie Theorien im Prozess der Wissenschaft entstehen, rückt damit immer mehr in den Vordergrund. Das bedeutet natürlich keineswegs, dass die bereits vorhandenen Theorien und Untersuchungen der sozialwissenschaftlichen Disziplinen obsolet und unbrauchbar werden – zum Teil müssten sie heute allerdings neu bedacht werden. Aber wichtiger noch: Wie entstehen neue gültige und brauchbare Theorien, deren Produktion ja zum Kern wissenschaftlichen Arbeitens gehört? Unabhängig von der Frage, ob sie richtig, wahr oder gültig sind und auch wofür sie gut sind – sie entstehen jedenfalls in der Sozialwissenschaft auf ganz unterschiedliche Weise: Sie können intuitiv erfunden werden, sie können einem großen Geist quasi von selbst zufliegen. Man kann versuchen, sie sich systematisch auszudenken. Man kann sie auch auf der Basis bereits vorhandener Einsichten entwickeln. Theorien können ferner wie bei Max Weber oder Niklas Luhmann das Ergebnis langjähriger empirischer und/oder theoriegeleiteter Auseinandersetzung mit spezifischen sozialen oder kulturellen Fragestellungen sein. Man kann Theorien aber auch systematisch entwickeln, indem man dafür gezielt Daten erhebt und sie im Hinblick auf die Konstitution von Theorie auswertet. Das ist das, worum es in dem vorliegenden Buch geht.

Im Hinblick auf ihre Alltagsprobleme wissen die Menschen eigentlich ziemlich gut, wie man das macht. Wem sich im ›normalen Leben‹ ein Problem in den Weg stellt, der denkt sich meist nicht irgendeine Lösung aus und probiert dann, ob es klappt – das wäre ein Testen von Hypothesen, das schnell im Desaster enden kann. Vielmehr wird man stattdessen versuchen, eine Lösung zu entwickeln, die mit hoher Wahrscheinlichkeit hilfreich ist. Man überlegt zum Beispiel, ob man vielleicht eine der eigenen Erfahrungen, die man auf einem anderen, ähnlichen Praxisfeld gemacht hat, zu Rate ziehen kann, um das Problem zu lösen. Und man befragt andere, von denen man vermutet, dass sie über den fraglichen Sachverhalt Bescheid wissen: Wenn ich zum Beispiel wissen will, wie ich in einer fremden Stadt zum Bahnhof komme, macht es Sinn, die Leute, die dort wohnen, zu interviewen.

Man versucht also im Alltag, systematisch ausgedrückt, durch Datenerhebung und Datenauswertung zu Lösungen zu gelangen. Auch wenn die Lösung von Alltagsproblemen nicht auf die Konstruktion von Theorien oder wissenschaftlichen Erkenntnissen hin angelegt ist, funktionieren solche Alltagsverfahren dennoch im Prinzip so ähnlich wie wissenschaftliche Forschung. Man kann sogar sagen, dass die wissenschaftlichen Verfahren aus den Alltagsverfahren abgeleitet sind, aber natürlich anderen, viel schärfer formulierten Kriterien genügen müssen, damit sie in der Wissenschaft akzeptabel sind. Während man im Alltag versucht, ein Problem zu lösen, zielt Wissenschaft zunächst auf Theorie, also auf die Konstruktion und Verwendung brauchbarer und allgemeiner Begriffe oder auf das Erkennen von allgemeinen Zusammenhängen, und darüber dann auf eine Lösung des Ausgangsproblems. Aber dennoch sind die Vorgehensweisen prinzipiell ähnlich.

Man kann dementsprechend sagen, dass man unter ›Theorieentwicklung‹ einen gezielten, problembezogenen, systematischen und datengestützten Prozess versteht, mit dessen Hilfe man von einer Ausgangsfrage bzw. einem Ausgangsproblem zu einer Theorie als Teil von Wissenschaft gelangt, mit der die Ausgangsfrage beantwortet und aus der schließlich auch eine brauchbare Lösung des Ausgangsproblems abgeleitet werden kann. Eine solche systematische Entwicklung von Theorie gehört ganz offensichtlich zur Arbeit von Wissenschaftlerinnen und Wissenschaftlern.

Wie man das macht, lernen Studierende der Sozialwissenschaften aber im Allgemeinen nicht. Wenn man sich die Lehrbücher zur empirischen Sozialforschung ansieht, wird auf der Grundlage wissenschaftstheoretischer oder anderer Vorannahmen in eine von zwei Arten von Sozialforschung eingeführt: Entweder in die sogenannte quantitative oder in eins der vielfältigen, sogenannten qualitativen Verfahren.2 Die quantitativen Verfahren unterscheiden sich von den qualitativen in den zugrunde liegenden Annahmen, im Vorgehen, in den konkreten Forschungsschritten und in den möglichen oder tatsächlichen Ergebnissen. Die qualitativen Verfahren unterscheiden sich aber auch untereinander, manchmal auf grundlegende Weise. Manchmal werden die quantitativen Verfahren als die standardisierten, die qualitativen Verfahren als die nicht standardisierten bezeichnet (AVERBECK-LIETZ/MEYEN 2016). Das ist jedoch keine klare Unterscheidung, weil alle Forschungsverfahren letztlich Regeln aufstellen, denen Forscherinnen folgen müssen. Die quantitativen sind dann eher standardisiert, die qualitativen sind es seltener, aber manche wie etwa Leitfadenintervies

Die sogenannte quantitative Forschung – wir werden ihr Vorgehen in 1.6 skizzieren – bildet, sieht man von Ethnographie und Volkskunde ab, den methodologischen Mainstream der Sozialwissenschaften. Sie orientiert sich an der Naturwissenschaft und versteht ebenso wie diese das, was sie tut, als Messen von Ausprägungen von einzelnen Merkmalen. Weil alle quantitativen Vorgehensweisen von der Operation des Messens ausgehen, sich an formaler Logik und Mathematik orientieren und im Prinzip gleichartig angelegt sind, kann man auch von einem einheitlichen, formallogisch-mathematischen Paradigma in der Sozialforschung sprechen. Dessen theorierelevanter Ertrag konzentriert sich dabei auf das Testen vorhandener Hypothesen. Diese Hypothesen sind Aussagen der Form Wenn-dann bzw. Je-desto oder Ableitungen bzw. Kombinationen davon. Sie drücken bezogen auf die soziale Wirklichkeit funktionale Beziehungen aus – und das sollen sie auch, weil die quantitative Forschung auf der Suche nach räumlich, zeitlich und sozial übergreifenden Zusammenhängen ist, die sie als Gesetze begreift – wie eben auch die Naturwissenschaften nach allgemeinen funktionalen Gesetzen suchen.

Die Frage, wie man Theorien systematisch entwickelt, stellt sich in diesem Paradigma dann offensichtlich nicht. Man kann – natürlich unter Verwendung angemessener Begriffe – einfach Aussagen der Form Wenn-dann oder Je-desto formulieren, die sich auf den jeweiligen Gegenstandsbereich beziehen. Die Theorie setzt sich dann aus solchen Aussagen zusammen, man muss sie aber natürlich, bevor sie Teil des wissenschaftlichen Wissens werden, empirisch überprüfen. Und man muss beim Überprüfen sehr systematisch und kontrolliert vorgehen, wenn man die Wissenschaft nicht ruinieren will.

Von daher kann man sich die quantitative Sozialforschung als eine Art von Werkzeugkoffer vorstellen, in dem ähnlich strukturierte Instrumente liegen, mit denen man Daten erhebt und analysiert. Die Regeln, wie man diese Instrumente konstruiert und benutzt, ähneln sich für Befragung und Beobachtung, für Experiment und Inhaltsanalyse. Das gleiche gilt für die Auswertung der einmal erhobenen Daten. Deswegen ist quantitative Forschung ja auch arbeitsteilig möglich und kann an Hilfskräfte oder Agenturen, in absehbarer Zeit vermutlich in immer mehr Teilen auch an Software delegiert werden.

Ein solches Verständnis von Forschung hat natürlich vielfältige Konsequenzen für die möglichen Ergebnisse, aber auch für die Art, wie Forscher der Realität gegenübertreten. Die verwendeten Instrumente wie zum Beispiel Fragebögen dienen als Filter für das, was von der Realität berücksichtigt wird und was nicht. Die beteiligten Forscherinnen sind zwar für die Entwicklung und Bedienung der Instrumente und dann wieder für die Auswertung zuständig, gelten sonst aber eigentlich nur als störend. Denn der Forschungsgegenstand wie auch die Beziehung zu den Objekten, mittels derer Daten erhoben werden, werden als unabhängig von den Forscherinnen gedacht, die keinesfalls beeinflusst werden dürfen. Das hat dann immer die Konsequenz, wie es der Psychoanalytiker und Ethnologe George Devereux (1967) ausgedrückt hat, dass der Forscher sich hinter seinen Messinstrumenten verschanzt, über geeigneten Operationalisierungen grübelt, mathematische und insbesondere statistische Probleme löst, Indizes konstruiert und Daten per SPSS analysiert, anstatt sich auf die soziale Realität offen und kommunikativ einzulassen. Dahinter steht das traditionelle Verständnis, wie man beim Messen vorzugehen hat. Ein derartiges Vorgehen war wohl im Fall der Naturwissenschaft jedenfalls bis zu Albert Einstein und Max Planck erfolgreich –, danach aber nicht mehr. Und ob das für die Sozialwissenschaften das einzig angemessene Vorgehen ist, ist nicht plausibel und dementsprechend strittig.

Um nicht missverstanden zu werden: Natürlich gibt es hervorragende, auf quantitativen Daten basierende Untersuchungen, die spezifische Fragen beantworten, aber im großen Ganzen behindert die einseitige Betonung quantitativer Verfahren in den Sozialwissenschaften die Forschung.

Die sogenannten qualitativen Verfahren sind demgegenüber sehr viel schwieriger zu beschreiben, weil sie eine eher unübersichtliche Vielfalt bilden – psychoanalytische, hermeneutische und ethnomethodologische Forschung, Diskurs-, Inhalts- und Filmanalyse funktionieren je nach ganz unterschiedlichen Regeln und geben auch nur auf ganz bestimmte Fragestellungen Antwort. Man kann hier eigentlich nicht von einem einheitlichen Paradigma sprechen. Immerhin kann man aber ganz allgemein sagen, dass die qualitativen Forschungsverfahren kontextbezogene und kontextberücksichtigende Verfahren sind. Sie gehen davon aus, dass sich der Bereich der Sozialwissenschaften von dem der Naturwissenschaften grundlegend unterscheidet. Während die Natur gewissermaßen ›geschieht‹, beruht ›das Soziale‹ auf dem menschlichen Handeln, und menschliches Handeln geschieht nicht einfach, sondern ist immer sinngeleitetes und bedeutungsstrukturiertes Geschehen. Wenn man also die soziale Wirklichkeit verstehen will, muss man am gemeinten Sinn sozialen Handelns ansetzen. Sinn definiert aber nicht die Forscherin oder der Forscher, sondern die oder der Befragte oder Beobachtete, also die Person, um deren Wirklichkeit es geht und auf deren Wirklichkeit sich Forscherin oder Forscher einlassen müssen: Qualitative Forschung berücksichtigt deshalb eben die Kontexte, in denen Handeln und, allgemeiner, soziale Wirklichkeit entstehen. Sie ist zudem immer kommunikativ angelegt, weil man letztlich nur in der kommunikativen Auseinandersetzung mit einem anderen Menschen den Sinn dessen verstehen kann, den er mit sozialem Handeln verbindet.

Auf diesen Grundannahmen haben sich also mittlerweile unterschiedliche qualitative Verfahren entwickelt. Bedauerlicherweise gibt es kaum systematische Darstellungen davon, auf welchen weiteren fundamentalen theoretischen Annahmen die einzelnen qualitativen Ansätze beruhen, für welches Anwendungsgebiet sie gedacht sind und welche Fragestellung man damit beantworten kann. Auch die Frage, ob jedes als qualitativ attribuierte Verfahren in sich überhaupt plausibel ist, ist keineswegs hinreichend beantwortet. Immer noch kann jeder, der nicht quantitativ forscht, zwar behaupten, er tue dies eben qualitativ – was aber sicherlich verlangt, dass es methodisch kontrolliert und nachvollziehbar geschieht und jeweils begründet werden muss. Immer noch wächst der bunte Strauß qualitativer Verfahren so durch weitere, die oft nur ad hoc entwickelt werden. Auch sind kaum klare Kriterien konsensuell benannt, mit denen man eine qualitative Untersuchung beurteilen kann. Dennoch gibt es natürlich auch wunderbare Arbeiten, großartige Ergebnisse und unglaublich dichte Beschreibungen und Theoretisierungen, die auf Basis qualitativer Forschung entstanden sind. Und es ist erkennbar, dass es bemerkenswerte Bestrebungen gibt, das offene Feld von qualitativen Verfahren zu ordnen und weiterzuentwickeln.

Die theoriegenerierenden Verfahren, die wir in diesem Buch behandeln, werden üblicherweise zu den qualitativen Verfahren gerechnet. Das ist im Prinzip auch richtig, weil sie ebenfalls kontextbezogen und kommunikativ angelegt und auf den subjektiven Sinn sozialen Handelns ausgerichtet sind und sich auch sonst an vielen allgemeinen Grundregeln qualitativer Forschung orientieren. Sie bilden aber, wie wir noch sehen werden, eine eigenständige Gruppe, weil sie in diesem Rahmen einige Besonderheiten aufweisen. Einerseits machen diese theoriegenerierenden Verfahren keine speziellen Annahmen über die Wirklichkeit, sondern sind im Prinzip auf alle Fragestellungen in allen sozialwissenschaftlichen Gegenstandsbereichen anwendbar, was für viele qualitative Verfahren nicht gilt. Andererseits bestehen sie aus klaren Regelsystemen, die auf die Konstruktion von Theorie zielen. Sie führen deshalb immer zu brauchbaren Theorien, wenn sie regelgerecht verwendet werden. Übrigens können sie im Prinzip auch auf quantitative Daten angewandt werden – ihr Ziel liegt einfach nur darin, Theorien zu entwickeln.

Die quantitativen und die qualitativen Verfahren sind also eigentlich für unterschiedliche Fragestellungen geeignet und führen – wir werden dies später noch genauer begründen – zu unterschiedlichen Arten von Theorien bzw. theoretischen Aussagen. Beide können zur Wissenschaft beitragen. Obendrein beschreiben Kategorien wie quantitativ und qualitativ eigentlich Datenarten, die Forscherin oder Forscher erheben wollen, aber keine Methoden oder Verfahren. Deshalb ist der Streit um hier qualitative und dort quantitative Verfahren eher unfruchtbar, wenn auch als Differenzierung und Unterscheidung natürlich nicht überflüssig.

Nach wie vor sind die qualitativen Verfahren in den Sozialwissenschaften, sieht man von der Ethnologie ab, unterrepräsentiert. Oft beenden Studierende ihre Ausbildung, ohne je etwas davon genauer kennen gelernt zu haben. Und wenn sie davon etwas gehört haben, dann meist eher zufällig und nur von einem