1 Einleitung & Zielstellung

Das vorliegende Handbuch bündelt und systematisiert den Forschungsstand zu inhaltsanalytischen Studien aus der Kommunikationswissenschaft. Der Fokus liegt dabei auf standardisierten – automatisierten und manuellen – Verfahren. Die automatisierte (computergestützte) Inhaltsanalyse ist ein methodisches Verfahren, bei dem die einzelne Codierentscheidung von einem Computeralgorithmus getroffen wird und nicht von den Forschenden oder CodiererInnen (Rössler 2017). Sie hat in den vergangenen Jahren an Bedeutung gewonnen (Rössler 2017; Sommer et al. 2014) ist aber kein vollständiger Ersatz für die konventionelle Inhaltsanalyse (Früh 2017; Scharkow 2012). Vielmehr lassen sich optimale Einsatzgebiete für das eine und das andere Verfahren identifizieren (Früh 2017; Scharkow 2012). Insbesondere die Big-Data-Forschung ist angewiesen auf automatisierte Erhebungsmethoden (Rössler 2017). Die nachfolgenden Ausführungen sollen jedoch ein Grundverständnis über Merkmale, Schritte, Qualitätskriterien und Schwerpunkte der manuellen Inhaltsanalyse vermitteln, die für die Nachvollziehbarkeit von Konzept und Idee des Handbuchs behilflich sein können. So wird in diesem Kapitel deutlich, was unter standardisierter Inhaltsanalyse – auch in Abgrenzung zur qualitativen Inhaltsanalyse – verstanden wird. Zudem werden auch Qualitätskriterien der manuellen Inhaltsanalyse skizziert, die bei der Auswahl der berichteten Studien in diesem Handbuch und auch der Operationalisierungen für die dazugehörige Datenbank zentral waren. Dieses Kapitel stellt selbstverständlich kein Äquivalent zu umfangreichen Darstellungen der Methode dar. Hierfür sei auf die entsprechend einschlägige Literatur verwiesen (u. a. Früh 2017; Brosius et al. 2012).

2 Definition & Grundlagen: Inhaltsanalyse

Die manuelle Inhaltsanalyse gilt nach wie vor als zentrale Methode kommunikationswissenschaftlicher Forschung. Bei der manuellen Inhaltsanalyse wird die Codierung, im Gegensatz zur automatisierten Inhaltsanalyse, nicht durch einen Computer durchgeführt, sondern durch menschliche CodiererInnen. In Berelsons soziologischem Werk von 1952 wurde die Inhaltsanalyse erstmals systematisch und theoretisch fundiert vorgestellt: „Content analysis is a research technique for the objective, systematic, and quantitative description of the manifest content of communication.“ (Berelson 1952: 18). Heute hat die Inhaltsanalyse längst den Status einer eigenständigen Methode erreicht und die Methodendefinitionen unterscheiden sich in einigen Punkten von Berelsons erstem Vorschlag: Merten (1995) unterscheidet und definiert insbesondere manifeste und nicht-manifeste Inhalte: „Die Inhaltsanalyse ist eine Methode zur Erhebung sozialer Wirklichkeit, bei der von Merkmalen eines manifesten Textes auf Merkmale eines nicht-manifesten Kontextes geschlossen wird“ (Merten 1995: 59). Die Diskussion um latente und manifeste Inhalte wird u. a. bei Merten (1995), Früh (2017) und Brosius et al. (2012) ausgiebig geführt. Früh (2017) verzichtet ganz auf die Unterscheidung von manifesten und latenten Inhalten, ersetzt die Beschreibung objektiv durch die erkenntnistheoretisch angemessenere Bezeichnung intersubjektiv, sowie die Bezeichnung quantitativ durch standardisiert: „Die Inhaltsanalyse ist eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen, meist mit dem Ziel einer darauf gestützten interpretativen Inferenz auf mitteilungsexterne Sachverhalte“ (Früh 1998: 27). Systematisch, d. h. einem System folgend, planmäßig und konsequent, geht die standardisierte Inhaltsanalyse dabei in allen Schritten des Forschungsprozesses vor. Die Intersubjektivität zielt auf die Nachvollziehbarkeit und Nachprüfbarkeit aller Schritte der Inhaltsanalyse ab. In der Forschungspraxis arbeitet die Inhaltsanalyse mit einer Kombination aus qualitativen Urteilen über (Medien-)Botschaften, die quantitativ verdichtet und ausgewertet werden (Rössler 2017).

Inhaltsanalysen lassen sich nach ihrem Standardisierungsgrad unterscheiden (Scheufele und Engelmann 2009). Rein qualitative Inhaltsanalysen berücksichtigen dezidiert die Individualität einzelner spezifisch ausgewählter Medienangebote (Rössler 2017). Zur quantitativen Inhaltsanalyse werden die Verfahren gezählt, die quantifizierend bzw. messend vorgehen und meistens auf weit größere Stichproben angewendet werden (Scheufele und Engelmann 2009). Die quantitative/standardisierte Inhaltsanalyse reduziert die Komplexität der Berichterstattung, indem sie formale und inhaltliche Merkmale großer Textmengen erfasst; d. h. deren zentrale Muster herausarbeitet (Brosius et al. 2012; Rössler 2017). Diesen Mustern wird eine größere Bedeutung zugeschrieben als dem einzelnen Fall (Rössler 2017). Nicht die ganze Komplexität eines Textes wird erfasst, sondern nur wenige ausgewählte Merkmale desselben werden reduktiv analysiert (Brosius et al. 2012).

3 Schritte in der standardisierten Inhaltsanalyse

Der Ablauf der standardisierten Analyse von Medieninhalten lässt sich in vier Phasen einteilen: In die Planungs-, Entwicklungs-, Anwendungs- und Auswertungsphase. In der ersten Phase der Planung werden der Forschungsstand aufgearbeitet, die Grundgesamtheit bestimmt und die zentralen Konstrukte, die empirisch erfasst werden sollen, festgelegt. Daraufhin beginnt die konkrete Entwicklung der Inhaltsanalyse. Die Forschenden legen fest, welche medialen Inhalte sie untersuchen, wie gegebenenfalls eine Stichprobe aus der Grundgesamtheit gezogen wird und in welcher Analyse- bzw. Codiereinheit die Inhalte untersucht werden (Früh, 1998, 2017; Rössler, 2017).

Planungsphase: Grundgesamtheit & Stichprobenverfahren

Die Festlegung der Grundgesamtheit ist zentral in der Planung und Entwicklung einer Inhaltsanalyse. Entlang der Forschungsfrage muss erstens entschieden werden, wie weit der Untersuchungsgegenstand definiert ist, also, ob bspw. die Inhalte zu einem konkreten Ereignis, Inhalte zu einem Themengebiet, themenunabhängige Inhalte eines bestimmten Mediums oder eines bestimmten Mediengenres untersucht werden sollen. Dadurch wird die Auswahleinheit entlang eines zeitlichen, räumlichen und inhaltlichen Geltungsbereichs festgelegt (Rössler 2017). Zweitens muss durch die so definierte Grundgesamtheit im Hinblick auf die darin enthaltene Anzahl der Elemente entschieden werden, ob eine Vollerhebung durchgeführt werden kann oder ob auf eine Stichprobe zurückgegriffen werden muss. Bei der Festlegung einer Stichprobe lässt sich zwischen willkürlicher, zufälliger und systematischer Auswahl unterscheiden (für eine breite Übersicht siehe Krippendorff 2018). Willkürliche Stichproben sind häufig auf Verfügbarkeitsrestriktionen von Medieninhalten zurückzuführen. Im Grunde handelt es sich bei willkürlichen Stichproben um Vollerhebungen, da nur eine Aussage über die untersuchten Medieninhalte getroffen werden kann und ein Inferenzschluss auf eine Grundgesamtheit nicht zulässig wäre (Riffe et al. 2019).

Um einen repräsentativen Rückschluss auf die Grundgesamtheit zu ziehen, ist streng genommen eine Zufallsauswahl Voraussetzung (Schnell et al. 2018). Eine einfache Zufallsauswahl von Elementen aus der Grundgesamtheit ist im Falle der Inhaltsanalyse allerdings sehr aufwändig: Es müssten in einem ersten Schritt alle Elemente eindeutig identifiziert werden, um dann nach dem Zufallsprinzip die zu untersuchenden Medieninhalte auszuwählen. Findet in einem ersten Schritt eine Begrenzung des Materials bspw. durch die Festlegung von Prototypen für die Fragestellung statt (werden bspw. bestimmte Medien oder Medienformate als typische Boulevard- und andere als typische Qualitätsmedien definiert), und werden diese Prototypen als Grundlage für eine zufällige Stichprobe herangezogen, dann kann von einer geschichteten Zufallsstichprobe gesprochen werden (Rössler 2017). Bei der systematischen Stichprobenziehung werden Elemente nach einem festgelegten Intervall ausgewählt – zum Beispiel wird eine künstliche Woche als Stichprobe erzeugt, indem nach einer Regel mit einem zufälligen Startpunkt jeder Wochentag für die Untersuchung ermittelt wird, so dass sich insgesamt eine nicht natürlich zusammenhängende Untersuchungswoche ergibt (Riffe et al. 2019, 1993). Wenngleich es sich bei diesem Vorgehen nicht um eine Zufallsstichprobe handelt und somit statistisch nicht von Repräsentativität gesprochen werden kann, können durch die innerhalb der Stichprobe ermittelten Zusammenhänge im Sinne eines Plausibilitätsschlusses durchaus Rückschlüsse auf die weiteren, nicht untersuchten Medieninhalte gezogen werden, sofern transparent gemacht wird, nach welcher Systematik die Stichprobe entstanden ist (Jandura et al. 2005; Riffe et al. 2019). Der Vorteil dieses Vorgehens liegt darin, dass im Unterschied zu einer Klumpenstichprobe, wenn also innerhalb eines festgelegten Clusters alle Elemente codiert werden wie bspw. die Analyse der Berichterstattung in einer natürlichen Woche, Einflüsse außergewöhnlicher Ereignisse auf die Befunde geringer ausfallen (Wolling 2005).

Im Gegensatz zu gedruckten oder linearen Medieninhalten steht die Analyse von Online-Inhalten bezüglich der Definition der Grundgesamtheit wie auch der Stichprobenziehung vor großen Herausforderungen. Mediale Inhalte setzen sich hier aus unterschiedlichen Formaten wie Text, Animationen, Video- oder Audioangeboten zusammen, sie liegen nicht in einer linearen Form vor, sondern werden verlinkt, personalisiert dargestellt und schnell wieder gelöscht (Emmer und Strippel 2015; Skalski et al. 2017; Welker und Wünsch 2010). Durch die Flüchtigkeit, Dynamik und die Personalisierung der Inhalte ist eine Archivierung und somit eine klare Umgrenzung der Grundgesamtheit äußerst schwierig (Karlsson und Sjovaag 2015; Meier et al. 2010; Riffe et al. 2019). Schon im Jahr 2000 regte McMillan (2000) an, methodologische Forschung zum Sampling von Internetinhalten für Inhaltsanalysen voranzutreiben, um neue Standards der Stichprobenziehung zu etablieren. Während bisher die Schwierigkeiten von Stichprobenziehungen bspw. mit Hilfe von Suchmaschinen diskutiert werden, liegt bisher noch keine standardisierte Lösung vor. Vielmehr wird angeregt, in Veröffentlichungen den Prozess der Definition der Grundgesamtheit und der Stichprobenziehung transparent darzustellen und auch die damit verbundenen Probleme offen zu diskutieren (Meier et al., 2010).

Entwicklungsphase: Erstellen des Codebuchs & Kategorienbildung

Nach der Auswahl des Untersuchungsmaterials wird die Analyse- bzw. Codiereinheit bestimmt. Als Analyseeinheit wird die kleinstmögliche Einheit der Auswertung verstanden – und dies ist die Ebene, auf der codiert wird (Rössler 2017): Zwar lassen sich die codierten Variablen in der späteren Analyse aggregieren, allerdings kann nicht detaillierter analysiert werden, als codiert wurde. Somit werden Analyse- und Codiereinheit nach diesem Verständnis häufig synonym genutzt. Eine Codierung muss nicht auf einer Analyseebene stattfinden, sondern kann unterschiedliche Ebenen vereinen. So können bspw. Variablen auf der Ebene eines Zeitungsartikels erhoben, etwa das Thema des Beitrags, und daraufhin auf Absatz- oder Argumentebene weitere Variablen codiert werden. Häufig sind diese unterschiedlichen Ebenen hierarchisch gegliedert und durch eine eindeutige ID bzw. Schlüsselvariable einander zugeordnet (Brosius et al. 2012; Rössler 2017).

Die Ausarbeitung des Codebuchs nimmt in der Entwicklungsphase die größten Ressourcen in Anspruch. Um intersubjektive Nachvollziehbarkeit zu gewährleisten und der Gefahr entgegenzuwirken, dass Entscheidungsheuristiken der CodiererInnen die Codierung dominieren (Wirth 2001), muss das Codebuch umfassende Definitionen der Kategorien bzw. Variablen, genaue Codieranweisungen, Codierbeispiele und -gegenbeispiele enthalten. Zu jeder Kategorie bzw. Variablen werden trennscharfe und erschöpfende/vollständige Ausprägungen entwickelt (Brosius et al. 2012). In den Codieranweisungen sollte präzise beschrieben werden, welche Eigenschaften des Inhalts dazu führen, dass eine Ausprägung als zutreffend angegeben wird. Dabei helfen auch die Beispiele, ebenso wie die Gegenbeispiele und Grenzfälle. An ihnen wird erläutert, warum eine Ausprägung als zutreffend oder als nicht zutreffend gewählt wurde. Wirth (2001) spricht in diesem Zusammenhang von dem Codierprozess durch die Codierenden als „gelenkte Rezeption“. Die Inklusion von Beispielen und Fallbeispielen macht schon deutlich, dass die Entwicklung des Codebuchs nicht nur deduktiv entlang des theoretischen Konstrukthintergrunds, sondern auch induktiv durch Zuhilfenahme des Medienmaterials geschieht. Dieser Ansatz des Zusammenspiels von deduktiver und induktiver Herangehensweise kann als „integrativ“ (Früh und Früh 2015) bezeichnet werden: Die Kategorienauswahl und -bildung wird theoriegeleitet vorgenommen, so dass die Validität der Messung gewährleistet ist. Durch Induktion werden die Kategorien dann kontextabhängig interpretiert und in codierbare Ausprägungen übersetzt. In welchem Verhältnis diese Ausprägungen zueinanderstehen, wird durch das Skalenniveau bestimmt: Nominale bzw. kategoriale Skalen lassen nur Aussagen über die Unterschiedlichkeit bzw. Gleichheit der codierten Ausprägungen zu (bspw. die Unterscheidung zwischen den Ausprägungen staatliche und nicht-staatliche Akteure der Variable Akteur). Ordinale Skalen erlauben hingegen Aussagen über ein Über- bzw. Unterordnungsverhältnis der Ausprägungen (bspw. die unterschiedliche Intensitätsstufen niedrig, mittel hoch der Variablen Personalisierung).

Die Art der ausgearbeiteten Variablen legt das Skalenniveau und damit auch weitere statistische Auswertungsmöglichkeiten fest. Bei einer Vielzahl der entwickelten Variablen handelt es sich um formale und inhaltliche Kategorien, die die Inhalte klassifizieren (Rössler 2017). Somit ist das Skalenniveau in diesen Fällen kategorial bzw. nominal, was sowohl eine dichotome als auch polytome Klassifizierungen einschließt. Wird die Stärke eines Merkmals innerhalb des Inhalts mit codiert, dann muss die/der Codierende eine evaluative Codierung vornehmen, weil sie/er zwischen den einzelnen Stärkestufen abschätzen muss. Im Falle dieser Kategorien mit evaluativen Elementen liegt häufig eine Ordinalskala vor, wobei insbesondere dann eine genaue und präzise Erläuterung im Codebuch und eine gründliche Codierschulung vonnöten ist (Rössler 2017). Dies gilt auch für wertende Kategorien, wie bspw. die Codierung der Bewertung bestimmter politischer Akteure.

Anwendungsphase: Codierschulung & Hauptcodierung

Das so entwickelte Codebuch wird in der Testphase umfangreichen Prüfungen unterzogen: In einem ersten Schritt wird von den Forschenden in Pretests geprüft, ob die Ausprägungen der Kategorien erstens trennscharf, zweitens erschöpfend und drittens intersubjektiv nachvollziehbar sind. In dieser Phase wird das Codebuch noch einmal angepasst und mit weiteren Beispielen, Gegenbeispielen und Grenzfallbeschreibungen angereichert. Innerhalb der Testphase findet auch die Codierschulung der Codierenden statt. Die Codierschulung ist zentral für den Erfolg der Inhaltsanalyse. Forschende üben zusammen mit den Codierenden anhand von Medienmaterial die Codierung ein, besprechen problematische Beispiele und erweitern gegebenenfalls noch die Codieranweisungen und sogar die Ausprägungsliste. Innerhalb der Codierschulung finden auch erste unabhängige Codierungen und Reliabilitätstests statt. Die Ergebnisse dieser ersten Tests sind Grundlage für die Überarbeitung und Finalisierung des Codebuchs. Abschließend findet eine umfangreiche Reliabilitätsüberprüfung statt, bevor die Phase der Anwendung beginnt.

In der Phase der Hauptcodierung findet regelmäßig Rücksprache mit den Codierenden statt und auch die Reliabilität der Codierung sollte fortlaufend überprüft werden, um mögliche „Rückfälle“ in Heuristiken frühzeitig zu bemerken (Wirth 2001). Die Inhaltsanalyse endet mit der Phase der Auswertung der Daten und der Darstellung der Ergebnisse. Wünschenswert und für die zukünftige Forschung zentral ist, dass möglichst genau dokumentiert wird, wie das Codebuch entwickelt wurde und wie erfolgreich die Codierung bezüglich der Fragen, ob tatsächlich gemessen wurde, was theoretisch interessierte (Validität) als auch, ob die Codierung unabhängig von der subjektiven Interpretation der CodiererInnen stattfand (Reliabilität), ausgefallen ist. Dies gelingt bspw. Russmann (2019), die praxisnah die Durchführung einer konkreten Inhaltsanalyse beschreibt.

4 Gütekriterien: Reliabilität & Validität

Die Reliabilitätsprüfung gehört mittlerweile zu den Standardprozeduren im Verlauf einer standardisierten, manuellen Inhaltsanalyse und wird von den Fachzeitschriften zunehmend gefordert (Rössler 2017). Wie aufgezeigt, ist in allen Definitionen der Inhaltsanalyse die intersubjektive Nachvollziehbarkeit der Messung wichtig, d. h., dass die Ergebnisse mit demselben Untersuchungsinstrument jederzeit reproduzierbar sein sollen und dies testet die Reliabilitätsprüfung. Es können nach Rössler (2017) drei Typen der Reliabilitätsmessung unterschieden werden: (1) Die Intracoderreliabilität betrifft die Übereinstimmung der Codierungen einer/s CodiererIn mit zeitlichem Abstand. (2) Die Prüfung der Intercoderreliabilität betrifft die Übereinstimmung zwischen zwei oder mehr CodiererInnen. (3) Die ForscherInnen-CodiererInnen-Reliabilität betrifft die Übereinstimmung der Codierung von ForscherIn und CodiererIn. Alle Reliabilitätsmessungen lassen sich mit Hilfe verschiedener Reliabilitätsmaße/-koeffizienten berechnen (Früh 2017). In der Vergangenheit wurde dafür häufig die sogenannte Holstiformel (Holsti 1969) genutzt. Andere häufig genutzte Reliabilitätskoeffizienten, mit unterschiedlichen Vor- und Nachteilen in Bezug auf Aussagekraft und Genauigkeit, sind bspw. Scotts Pi (Scott 1955), Cohens Kappa (Cohen 1960), Lotus coefficient (Fretwurst 2015) oder Krippendorff’s Alpha (Krippendorf 2004). Ein Vergleich verschiedener Reliabilitätskoeffizienten leisten bspw. Früh (2017), Müller-Benedict (1997), Fretwurst (2015) und Krippendorff (2004). Wann welcher Koeffizient empfohlen wird, unterscheidet sich bspw. in Abhängigkeit von der Stichprobengröße, CodiererInnenanzahl, Verfügbarkeit einer Mastercodierung, Komplexität und Skalenniveaus der Variablen, Datenstruktur (bspw. Verteilung der Werte in einer Kategorie), gewünschte Genauigkeit und Strenge der Überprüfung, zeitliche Ressourcen (wegen der Berechnungskomplexität einiger Variablen), Rechenkapazität, sowie von den Standards im Fach und in Fachzeitschriften. Die Werte solcher Koeffizienten liegen zwischen 0 (keine Reliabilität) und 1 (perfekte Reliabilität). Der Reliabilitätswert sollte dabei in den Studien zumindest getrennt für formale und inhaltliche Variablen angegeben werden (Rössler 2017). Formale Variablen erfordern eine nahezu 100-%ige Reliabilität (Brosius et al. 2012). Bei inhaltlichen Variablen macht es in der Evaluation Sinn auch die Anzahl der Ausprägungen einer Kategorie, welche überhaupt zur Auswahl standen, zu berücksichtigen (Rössler 2017). Der kombinierte Reliabilitätskoeffizient aller Kategorien sagt dann etwas über die Güte des Codebuches, über die Sorgfalt der CodiererInnen, sowie etwas darüber aus, wie gut es gelungen ist, die CodiererInnen zu übereinstimmenden Codierungen anzuleiten (Brosius et al. 2012; Früh 2017).

Bei der Validitätsprüfung können nach Rössler (2017) vier Typen unterschieden werden (vgl. auch Krippendorf 2004): (1) Die Analysequalität lässt sich als einzige Quantifizieren. Sie ergibt sich aus der ForscherInnen-CodiererInnen-Reliabilität und gibt Auskunft darüber, wie gut der von der/m ForscherIn gemeinte Bedeutungsgehalt durch die CodiererInnen getroffen wurde. (2) Die Inhaltsvalidität betrifft die Vollständigkeit. Die Forderung nach Vollständigkeit ist ein zentrales Kriterium für die Güte der gesamten Untersuchung und des Kategorienschemas, was sich anhand früherer Forschungsdesigns, Plausibilitäten, theoretischer Überlegungen und anderer Außenkriterien prüfen lässt (Brosius et al. 2012). (3) Die Kriteriumsvalidität benutzt zur Plausibilitätseinschätzung der Ergebnisse (die inferenzrelevanten Merkmale) der Inhaltsanalyse den Vergleich mit externen Quellen und vergleichbaren Erhebungen. Wenn das gleiche Konstrukt mit einem anderen Messinstrument gemessen wird, sollten übereinstimmende Ergebnisse generiert werden (Scheufele und Engelmann 2009); (4) Die Inferenzvalidität zielt auf die Gültigkeit der weitergehenden Schlussfolgerungen, welche mittels der Inhaltsanalyse getätigt werden, ab. Dazu sind meist auch externe Erhebungen mit einem anderen methodischen Zugriff erforderlich. Zu beachten ist bei der Validitätsprüfung im Allgemeinen, dass eine hohe Validität, die jeden kleinen Aspekt des theoretischen Konstruktes zu umfassen versucht, zu Lasten einer hohen Reliabilität geht (Brosius et al. 2012). Je detaillierter die Verschlüsselung wird, desto größer ist die Wahrscheinlichkeit einer hohen Fehlerquote bei der Codierung.

Als spezifisches Problem der Methode der manuellen Inhaltsanalyse, welches die Güte beeinflusst, wird von ForscherInnen die Reaktivität genannt (Rössler 2017; Scheufele und Engelmann 2009). Dabei ist nicht die Reaktivität des Untersuchungsmaterials gemeint, sondern der CodiererInnen. Diese haben bestimmte Vorstellungen, Einstellungen und Emotionen in Bezug auf Untersuchungsthemen und dies kann dazu führen, dass sie aufgrund subjektiver Interpretationsleistungen unterschiedlich codieren (Scheufele und Engelmann 2009; Wirth et al. 2015). Die Reaktivität sollte jedoch im besten Fall bei allen CodiererInnen gleich ausfallen, über die Zeit stabil bleiben und mit der von der/m ForscherIn erwarteten Reaktivität übereinstimmen (Degen 2015; Rössler 2017; Wirth et al. 2015). Die computerbasierte, methodische Weiterentwicklung der Inhaltsanalyse – die automatisierte Inhaltsanalyse – hat keine Probleme mit Reaktivität von Material oder menschlichen CodiererInnen (Früh 2017).

5 Zentrale Forschungsfragen, Designs & Analysegegenstände standardisierter Inhaltsanalysen

Kommunikationswissenschaftliche Inhaltsanalysen haben sich in der Vergangenheit hauptsächlich auf vier Bereiche konzentriert, denen auch in der Struktur des vorliegenden Handbuchs Rechnung getragen wird: journalistische Berichterstattung, fiktionale Inhalte, Inhalte von Kommunikatoren, sowie von NutzerInnen (Riffe et al., 2019). Untersuchungen von journalistischer Berichterstattung lassen sich verschiedenen Forschungsfeldern zuordnen, die im Folgenden kurz besprochen werden.

Ein großer Teil der Studien baut auf normativen Annahmen zur Rolle der Massenmedien in der Gesellschaft auf (McQuail 2013). Vor diesem Hintergrund beschäftigen sich viele Inhaltsanalysen mit Berichterstattungsstilen oder journalistischer Qualität bzw. Leistungsfähigkeit (siehe Kapitel zu Journalistic Reporting Styles und News Performance in diesem Buch). Diese Studien untersuchen, inwiefern journalistische Medienangebote BürgerInnen mit Informationen versorgen, die eine Meinungsbildung in der demokratischen Gesellschaft ermöglichen. Weitere Studien in diesem Bereich untersuchen die Berichterstattung zu einzelnen Themengebieten, z. B. zu Wahlen, Gesundheit, oder Terrorismus. In diesen Untersuchungen geht es häufig um die Frage, wie die Themen dargestellt werden und welche Themenaspekte, Frames, Akteure, oder Meinungen in der Berichterstattung vorkommen.

Ein weiteres Forschungsfeld stellen Inhaltsanalysen zu fiktionalen Inhalten dar. Besonders hervorzuheben sind in diesem Bereich Studien zu Filmen, Satire-Sendungen und Online-Games. Untersucht werden in diesen Studien, ausgehend von Überlegungen zur Kultivierung von Einstellungen und Vorurteilen, häufig Stereotype oder Gewaltdarstellungen, die über solche Formate vermittelt werden.

Ein weiteres wichtiges Forschungsfeld stellt die strategische Kommunikation von politischen, zivil-gesellschaftlichen und wirtschaftlichen Akteuren dar. Studien in diesem Bereich beschäftigen sich mit der Frage, wie verschiedene Interessengruppen ihre Anliegen kommunizieren und welche kommunikativen Mittel sie einsetzen, um ihre Ziele zu erreichen. Im Fokus der Forschung steht unter anderem die Selbstdarstellung politischer Akteure, z. B. in sozialen Medien, oder Wahlkampagnen einzelner KandidatInnen oder Parteien. Des Weiteren beschäftigte sich die Forschung in jüngerer Zeit verstärkt mit populistischen Aussagen von PolitikerInnen und Desinformation. Daneben wird untersucht, wie beispielweise NGOs oder Interessengruppen versuchen, Themen zu setzen und auf ihre Themen aufmerksam zu machen. Auch die Kommunikation wirtschaftlicher Akteure wird in verschiedenen Studien untersucht, insbesondere im Hinblick auf PR und Werbung.

Im vergangenen Jahrzehnt hat sich die die Forschung auch zunehmend auf die Inhalte von NutzerInnen konzentriert. So gibt eine Vielzahl von Inhaltsanalysen, die Kommentare auf Nachrichtenwebsites analysiert. Neuere Studien nehmen vermehrt Kommentare in sozialen Medien in den Blick. In diesen Studien geht es vorrangig um die Frage, wie zivil NutzerInnen miteinander kommunizieren und ob sich Anzeichen für einen Deliberationsprozess finden lassen.

Zentrale Variablen, die in allen genannten Forschungsfeldern vorkommen, sind formale Variablen, wie Umfang oder Länge, Akteure, Themen und Tonalität. Formale Variablen umfassen bspw. den Zeitraum, das Medium, oder die Anzahl von Likes und Shares bei Social-Media-Inhalten. Beim Sampling über Datenbanken, wie LexisNexis oder Factiva, oder über die API-Schnittstellen von Plattformen, wie Facebook oder Twitter, werden solche formalen Variablen in der Regel automatisiert erfasst. Aufwendiger ist dagegen die Analyse von Akteuren und Themen. Diese zentralen Variablen kommen in einem Großteil der Studien aller Forschungsfelder vor und basieren meist auf Listen oder Diktionären. Sie unterscheiden sich je nach Themengebiet und werden daher in diesem Handbuch in einer Reihe thematischer Kapitel diskutiert. Eine weitere zentrale Variable ist Tonalität (häufig auch als Valenz bezeichnet). Diese Variable misst in der Regel, ob eine Person oder ein Thema positiv, negativ, oder neutral dargestellt wird. In jüngerer Zeit kommen zur Messung von Tonalität bei großen Datenmengen vermehrt automatisierte Sentimentanalysen zum Einsatz.

Im letzten Jahrzehnt hat die Digitalisierung und die damit verbundenen Umbrüche die inhaltsanalytische Forschung in der Kommunikationswissenschaft geprägt. Wie die einzelnen Kapitel in diesem Handbuch zeigen, beschäftigt sich die aktuelle Forschung häufig mit diesen Veränderungen. Inhaltsanalysen werden derzeit häufig in Studien eingesetzt, die entweder den Wandel öffentlicher Kommunikation beschreiben und erklären, oder Phänomene untersuchen, die durch die Digitalisierung besondere Relevanz erhalten haben, wie z. B. NutzerInnenkommentare und digitale Anschlusskommunikation.

Studien, die sich mit dem Wandel beschäftigen, haben in der Regel ein Längsschnittdesign und untersuchen, wie sich öffentliche Kommunikation im Zeitverlauf verändert, bspw. durch die zunehmende Kommerzialisierung und Globalisierung. Oft werden zudem verschiedene Kanäle verglichen, etwa in Studien zu Wissenschaftskommunikation in Fernsehen, Zeitungen und auf Webseiten.

Studien mit einem ländervergleichenden Design analysieren dagegen oft Homogenisierungstendenzen in Nachrichteninhalten, die mit den veränderten Medienproduktions- und Nutzungsbedingungen begründet werden. Des Weiteren liegt in dieser Forschung ein Schwerpunkt auf der Identifikation von strukturellen Rahmenbedingungen, da diese Länderunterschiede in der öffentlichen Kommunikation bedingen (de Vreese et al. 2016).

In Zukunft ist die inhaltsanalytische Forschung vor allem mit dem Problem konfrontiert, eine ausreichende Codierquantität zu gewährleisten, auf deren Basis sich zuverlässige und valide Inferenzschlüsse ziehen lassen (Scharkow 2012). Textmengen in einer Größenordnung um zehntausend und mehr können nicht vollständig mit einer manuellen Inhaltsanalyse bearbeitet werden (Früh 2017). Da im Zusammenhang mit digitalen Inhalten häufig große Datenmengen anfallen, wird die manuelle Inhaltsanalyse immer häufiger mit automatisierten Verfahren kombiniert (Wettstein 2014), bspw. in Studien zu Inhalten in sozialen Medien. Solche Methodenkombination kommen bspw. in Studien zu NutzerInnenkommentaren und -reaktionen, Reputationsstudien, und Themenanalysen (z. B. im Wahlkampf) zum Einsatz. Derartige Weiterentwicklungen und Kombinationen machen die manuelle Inhaltsanalyse auch zukünftig zur einer der wichtigsten Methoden in der Kommunikationswissenschaft.