Advertisement

Quantifizierung

Datentransformation von qualitativen Daten in quantitative Daten in Mixed-Methods-Studien
  • Susanne Vogl
Open Access
Abhandlungen

Zusammenfassung

Die Herausforderung in der Datenanalyse liegt vor allem für qualitativ Forschende häufig darin, der Vielschichtigkeit und Komplexität der Daten gerecht zu werden und gleichzeitig Muster aufzuzeigen, was Reduktion und Vereinfachung erfordert. Die Quantifizierung qualitativer Daten kann ein ergänzender Schritt in der Auswertung sein, um die Perspektive zu erweitern und ergänzende Blickwinkel zur interpretativen Analyse zu sammeln. Anhand von Praxisbeispielen wird illustriert, wie Informationen aus je einer Datenerhebung mit unterschiedlichen Methoden Daten generiert oder Datenarten transformiert und statistisch ausgewertet werden können. Praktikalitäten der Integration qualitativer und quantitativer Auswertungsschritte werden illustriert und Good-Practice-Beispiele für Transformationsdesigns (QUAL \(\rightarrow\) QUAN) geboten. Durch die methodologische Reflexion werden Konsequenzen für das Feld der Mixed-Methods-Forschung erwogen, in dem die statistische Analyse aus interpretativer Auswertung eine untergeordnete Rolle spielen.

Schlüsselwörter

Methoden der empirischen Sozialforschung Mixed Methods Qualitative Methoden Quantitative Methoden Datenanalyse Datentransformation Datenkonsolidierung Quantifizierung 

Quantifying

Transformation of qualitative data in quantitative data in mixed methods studies

Abstract

The challenge in data analysis often lies in taking account of the multi-dimensionality and complexity of the data and at the same time discovering patterns, which requires reduction and simplification. Quantitizing qualitative data can serve as an additional step during data analysis to broaden the perspective and collect complementary views. Examples from research illustrate how information gathered during one data collection can generate different types of data or how qualitative data can be transformed to be analysed statistically. Practicalities of integrating qualitative and quantitative analyses are illustrated to offer good-practice examples for transformation designs (QUAL → QUAN). With the methodological reflection of research practice I evaluate consequences for the field of mixed methods research, in which the statistical analysis of codes created during an interpretive phase plays a minor role.

Keywords

Mixed Methods Qualitative methods Quantitative methods Data analysis Data transformation Data consolidation Quantitizing 

1 Mixed-Methods-Auswertung: Datentransformation als Strategie

Obwohl eine Kombination und Integration qualitativer und quantitativer Auswertungsstrategien vielversprechend ist, dreht sich die methodische und methodologische Diskussion in der Mixed-Methods-Forschung vor allem um Fragen des Forschungsdesigns und der paradigmatischen Grundlagen. Es gibt einige Arbeiten, die Methoden der Datenanalyse in Mixed-Methods-Forschung reflektieren (Sandelowski et al. 2009; Weaver-Hightower 2014; Kerrigan 2014; Bazeley 2012, 2016; Kuckartz in diesem Band), nach wie vor mangelt es aber an Literatur zur Methodenintegration vor allem im Hinblick auf die praktische Umsetzung und insbesondere in Bezug auf komplexere Analyseformen (Kuckartz 2014; Kelle 2007; Kuckartz in diesem Band; Onwuegbuzie und Hitchcock 2015). In vielen Fällen stehen qualitative und quantitative Auswertungsmethoden eher unzusammenhängend nebeneinander und die Integration findet eher auf der Interpretationsebene in Form von Meta-Inferenzen statt (Bazeley 2016; Caracelli und Greene 1993; Prein et al. 1993; Kuckartz in diesem Band).

Gerade die Integration von Methoden und Daten kann zusätzliche Erkenntnismöglichkeiten eröffnen, weil durch verschiedene Auswertungsmethoden die Breite und Tiefe der Ergebnisse erhöht werden kann. Die Komplexität und Vielschichtigkeit vieler (natürlich nicht aller!) Forschungsprobleme verlangt nach methodischen Zugängen, die nicht nur Quantifizierungen (oder „Qualifizierungen“) erhalten. In diesem Sinne ist eine Bezugnahme qualitativer und quantitativer Auswertungsschritte aufeinander, auch unter Verwendung der gleichen Daten, wünschenswert. Eine Kombination qualitativer und quantitativer Daten ermöglicht eine weitaus umfassendere Analyse eines Problems (Kuckartz 2014; Kuckartz in diesem Band). Vor allem hier können die Schwachstellen einer Analysemethode durch die Stärken der anderen ausgeglichen werden und ein umfassenderes Verständnis eines Phänomens geschaffen werden. Unterschiedliche Ansprüche und Hintergründe der beiden Traditionen sollten nicht als Übel, sondern eher als Zugewinn gesehen werden, weil durch die Unterschiede die Chance auf eine Ausweitung der Beobachtungsperspektive liegt (Schnapp et al. 2006, S. 20). Der Nutzen scheint offensichtlich, methodologische Reflexion und die praktische Umsetzung sind noch zu klären.

Gerade die Datenanalyse stellt in Mixed-Methods-Projekten eine Herausforderung dar (Onwuegbuzie und Combs 2010) – jedenfalls sofern Datenintegration angestrebt wird. Von Datenintegration spricht man, wenn durch verschiedene Analysestrategien ein gemeinsames Produkt aus unterschiedlichen Quellen entsteht (Li et al. 2000), das nicht mehr voneinander zu trennen ist und ein gemeinsames Forschungsziel hat. Herausfordernd ist nicht nur, dass Kompetenzen in interpretativen und statistischen Verfahren erforderlich sind, sondern quantitativ-statistische Auswertung wirft methodische Probleme auf: zum Beispiel, dass qualitative Studien mit in der Regel geringen Fallzahlen und einer bewussten Auswahl Voraussetzungen statistischer Tests nicht oder nur eingeschränkt erfüllen (Bazeley 2016). Die Frage, wie statistische Methoden mit stärker interpretativen Verfahren kombiniert werden können, um das beste Verständnis eines Untersuchungsgegenstandes zu erzielen, verlangt immer noch nach innovativen Strategien (Fakis et al. 2014; Niglas et al. 2008).

In diesem Beitrag beziehe ich mich explizit auf Transformationsdesigns, bei denen qualitative Daten in quantitative transformiert werden – es sei darauf hingewiesen, dass die Unterscheidung zwischen qualitativen und quantitativen Daten vereinfacht gedacht ist. Qualitative und quantitative Daten sind keine völlig unterschiedlichen Datensorten, sondern sie basieren auf Erfahrungen, die zum Beispiel in Worte oder Zahlen geformt werden (Sandelowski et al. 2009). Eine (gedachte) Dichotomie kann teilweise hinderlich für die Integration in der Datenanalyse sein (Bazeley 2009). Zudem ist einen trennscharfe Differenzierung zwischen qualitativen und quantitativen Methoden oder Zugängen nicht möglich (Bergman 2008; Bazeley 2012).

Allgemein hat die Datenanalyse im Forschungsprozess die Funktion der Reduktion und Organisation der Rohdaten, um diese handhabbar und weiteren Auswertungen zugänglich zu machen. Die Analyse dient auch der Aufdeckung von Mustern von Beziehungen, Verbindungen oder Trends und Unterschieden sowie der Untermauerung und Bekräftigung von Schlussfolgerungen (Greene 2007, S. 144). Das analytische Vorgehen basiert prinzipiell auf fünf Schritten: Datenbereinigung und -aufbereitung, Datenreduktion, Datentransformation, Vergleiche, Korrelationen und Schlussfolgerungen (Greene 2007).

Spricht man von Mixed-Methods-Datenanalyse, auch Mixed Analysen genannt, werden sowohl qualitative als auch quantitative Analysestrategien innerhalb eines ähnlichen Bezugsrahmens angewendet. Eine Mixed-Methods-Analysestrategie beinhaltet die Auswertung eines oder beider Datentypen, also quantitativer, qualitativer oder qualitativer und quantitativer Daten, die sowohl gleichzeitig, nacheinander oder iterative in mehr als zwei Phasen gewonnen wurden (Onwuegbuzie und Hitchcock 2015; Kuckartz in diesem Band). Entscheidend ist die Integration. Dadurch ist die Datenanalyse in Mixed-Methods-Studien nicht nur eine Verdoppelung der Analyse, also einer qualitativen und einer quantitative, sondern auch die Interaktion der beiden Auswertungsstränge ist zu beachten. Die Formulierung der Forschungsfrage ist ausschlaggebend für das wann, in welchem Maß und auf welche Weise Daten aus verschiedenen Methoden integriert werden (Brannen und O’Connell 2015).

Bei der Wahl einer Analysestrategie muss die Zielsetzung des Methodenmix bedacht werden. Dafür müssen in einem ersten Schritt die Motive für Mixed-Methods-Studien erst einmal klar benannt werden, was laut Bryman (2008) in dieser Form leider zu selten eindeutig passiert, um anschließend korrespondierende Analysestrategien zu wählen. Ziele von Mixed-Auswertungsstrategien, analog zu Design und Datensammlung, können sein (Caracelli und Greene 1993; Greene et al. 1989; Onwuegbuzie und Hitchcock 2015; siehe auch Schoonenboom und Johnson in diesem Band):
  1. a)

    Triangulation: gegenseitige Validierung;

     
  2. b)

    Komplementarität: die Datenanalysen dient der Generierung komplementärer Ergebnisse;

     
  3. c)

    (Instrumenten-)Entwicklung;

     
  4. d)

    Initiation: die Analyse eines Datentyps generiert neue Hypothesen oder Forschungsfragen, die dann mit dem anderen Datentyp weiter verfolgt werden; und

     
  5. e)

    Expansion: die Auswertung eines Datentyps ergänzt die Erkenntnisse, die durch die Analyse des anderen Typs gewonnen wurden.

     

Dabei eignen sich integrative Datenanalysestrategien vor allem bei Initiations-, aber auch bei Expansions- und Entwicklungszielsetzungen. Ist Triangulation das Ziel, also die Untersuchung des gleichen Forschungsgegenstandes aus unterschiedlichen Perspektiven, um die Validität zu steigern, sollten Analysestrategien konsequenterweise unabhängig voneinander stattfinden (Caracelli und Greene 1993; Onwuegbuzie und Combs 2010). Parallele Designs, bei denen Analyse und Interpretation der Datenarten getrennt stattfinden, finden sich vor allem bei Studien mit dem Zweck der Expansion (Caracelli und Greene 1993).

Ein vielversprechender Ansatzpunkt für Mixed-Methods-Analyseverfahren sind die sogenannten „Cross-Over-Analysen“ (Teddlie und Tashakkori 2009; Li et al. 2000) oder „Cross-Over-Tracks-Analysen“ (Greene 2007). Onwuegbuzie und Combs (2010) definieren Cross-Over-Mixed-Analysen als Vorgehen, bei dem mindestens ein Analysetyp einer Tradition angewandt wird, um Daten der anderen Tradition auszuwerten. Charakteristisch ist also eine inter-paradigmatische Analyse, d. h. zum Beispiel eine quantitative Analyse qualitativer Daten. So kann etwa die explorative Faktorenanalyse verwendet werden, um thematische Strukturen aus qualitativen Analysen zu untersuchen (Onwuegbuzie 2003). Wenn Daten aus verschiedenen Quellen gesammelt wurden, erleichtern Cross-Over-Analysen Vergleiche. Folglich bieten sich Cross-Over-Analysen insbesondere zur Triangulation, Komplementarität und Initiation an, weil Konsistenzen und Inkonsistenzen leicht aufgedeckt werden können (Li et al. 2000, S. 126). Cross-Over-Analysen können dazu dienen, Daten zu reduzieren, zum Beispiele die Multidimensionalität qualitativer Daten durch quantitative Analysen zu begrenzen (Onwuegbuzie und Teddlie 2003). Sie können eine gemeinsame Darstellung der qualitativen und quantitativen Ergebnisse erleichtern (joint display, siehe auch Kuckartz in diesem Band), Assoziationen zwischen qualitativen und quantitativen Daten aufzeigen und Meta-Inferenzen vergleichen und ermöglichen. Durch die Verknüpfung mehrerer Datensätze können konsolidierte Codes und Variablen entstehen (Onwuegbuzie und Teddlie 2003). Die Verschränkung qualitativer und quantitativer Daten in der Analyse birgt Potenzial für zusätzliche Erkenntnis (Onwuegbuzie und Hitchcock 2015).

Um diese Cross-Over-Analysen durchzuführen, schlagen Caracelli und Greene (1993, S. 197) in ihrem klassischen Aufsatz vier verschiedene Analysestrategien zur Integration qualitativer und quantitativer Daten vor: (1) Datentransformation, (2) Entwicklung von Typologien, (3) Extremfall-Analyse und (4) Datenkonsolidierung. Im Folgenden fokussiere ich mich auf die Datentransformation.

Unter „Datentransformation“ (Konversion) verstehen Caracelli und Greene (1993) die Umwandlung eines Datentyps in den anderen, sodass eine gemeinsame Analyse möglich ist. Zum Beispiel werden qualitative Interviewdaten in numerische Ratings transformiert und die Werte in einen quantitativen Datensatz integriert, um etwa den Zusammenhang zwischen Persönlichkeitsmerkmalen und der Bewertung eines Gegenstandes zu untersuchen. Es können auch quantitative Daten in Narrative transformiert und thematisch zusammen mit den qualitativen Daten analysiert werden. Teddlie und Tashakkori (2009) bezeichnen das Vorgehen als „Quantifizierung“ („quantitizing“) und „Qualifizierung“ („qualitizing“) im Rahmen eines Konversions-Designs (in Abgrenzung von sequentiellen und parallelen Designs). Ziel dieses Vorgehens ist ein erweitertes Verständnis (Caracelli und Greene 1993, S. 197–198).

Allgemeiner formuliert liegt der Zugewinn durch Datentransformation darin, dass interpretative Analyse plastischer und nachvollziehbarer und die Ergebnisse durch unterschiedliche Informationsarten erweitert werden. Auf diese Weise kann die Vielschichtigkeit der Daten ausgeschöpft werden. Das Spektrum und der Detailgrad der Fragen, die man durch die Forschung beantworten kann, sind breiter (Kuckartz 2014). Gleichzeitig gewinnen quantitative Forschungsergebnisse durch den detaillierten Blick auf Einzelfälle an Tiefe. Durch die qualitativen Ergebnisse können quantitative Ergebnisse kontextualisiert werden, wodurch ein besseres Verständnis für das Forschungsproblem erreicht werden kann, weil die Ergebnisse umfangreicher, mehrperspektivischer und „vollständiger“ sind (Kuckartz 2014).

Qualifizierung kann dazu dienen, zusätzliche Information aus den quantitativen Daten zu gewinnen oder deren Interpretation zu prüfen. Beispielsweise können individuelle Werte auf Skalen zur Charakterisierung von Befragten in verbale Profile oder Typologien erstellt werden (Sandelowski 2000; Bazeley 2012). Ein Profil kann eine narrative Beschreibung sein, die durch die am häufigsten auftretenden Attribute angeleitet ist; zum Beispiel wenn alle Mitglieder einer Gruppe Mit-Fünfziger sind, können sie als Gruppe mittleren Alters beschrieben werden. Analog können Profile verbale Beschreibungen der Personen in Bezug auf den Mittelwert eines bestimmten Merkmals sein. Auch wenn es nicht immer als „Qualifizierung“ bezeichnet wird, so wird dieses Vorgehen doch häufig verwendet, um eine Stichprobe zu beschreiben oder Ergebnisse zu interpretieren (Sandelowski 2000, S. 253). Wenn Längsschnittdaten vorliegen, ergibt sich weiteres narratives Potenzial, etwa auch durch Ereignisanalysen, wodurch Abfolgen und Muster zur Profilbildung von Individuen oder Gruppen herangezogen werden können (Bazeley 2012, S. 821).

Quantifizierung wird in der Forschungspraxis deutlich häufiger eingesetzt (Kuckartz in diesem Band) als Qualifizierung. Quantifizierung bedeutet, dass qualitative Daten mit quantifizierenden Techniken in numerische Daten transformiert werden (Sandelowski 2000; Sandelowski et al. 2009). Ziel ist es, Regelmäßigkeiten oder Besonderheiten in den qualitativen Daten aufzuzeigen, die ansonsten entweder nicht erkennbar oder nicht kommunizierbar wären (Sandelowski et al. 2009, S. 210). Quantifizierungen dienen der Vereinfachung. Wenn sie kreativ, kritisch und reflexiv verwendet werden, können sie die Komplexität und Multidimensionalität qualitativer Daten wiedergeben (Sandelowski et al. 2009, S. 219). Sie dienen aber keinem Selbstzweck, sondern unterstützen das Entdecken und Beschreiben von Mustern in Daten, vor allem wenn es sich um große Datensätze handelt. Durch die Quantifizierung können unterschiedliche Datensorten leichter verglichen und integriert werden.

Die Vielschichtigkeit qualitativer Daten kann durch die Integration quantifizierender und interpretativer Merkmale auf unterschiedliche Art und Weise genutzt werden, um komplementäre Informationen über ein Phänomen zu erhalten („complementarity“) und die Bandbreite an Informationen zu erweitern („completeness“). Außerdem ist die gegenseitige Untermauerung der qualitativen und quantitativen Ergebnisse („corroboration“) ein Ziel von Transformationen, weniger die gegenseitige Validierung der Ergebnisse (Flick 2004; Seipel und Rieker 2003), dafür sind die Erkenntnismöglichkeiten in der Regel zu unterschiedlich. Der Mehrwert durch die Datentransformation liegt darin, umfangreiches Datenmaterial handhabbar zu machen und somit systematische Vergleiche sowohl in der Struktur als auch in der inhaltlichen Qualität zu erleichtern.

Quantifizierungen beziehen sich häufig auf Kodierungen, die praktisch in allen qualitativen Analysen vorkommen. Die am häufigsten angewendete qualitative Analyse ist eine Themenanalyse, wobei Kriterien zu Identifikation solcher Themen oft unklar bleiben (Bryman 2016). Eine Möglichkeit für die Begründung der Wichtigkeit eines Themas über die Häufigkeit des Auftretens von Wörtern oder Aussagen, die ein Thema bestimmen. Zählen ist letztlich eine Form der Beschreibung und Häufigkeiten können etwas über die relative Bedeutung von Themen aussagen. Einfache Häufigkeitsauszählungen von Codes oder Themen können qualitative Ergebnisse ergänzen. Zum Beispiel kann das Fehlen oder Vorkommen eines Codes als dichotome Variable mit 0 und 1 kodiert werden oder als kontinuierliche Variable die Anzahl des Auftretens repräsentieren (Bazeley 2010; Sandelowski et al. 2009). Diese Information wird als Variable statistisch bearbeitet (Bazeley 2012, S. 822) und für explorative, explanatorische, vergleichende, vorhersagende oder konfirmatorische Analysen verwendet (Sandelowski et al. 2009; Bazeley 2010).

Ein Review von Mixed-Methods-Studien zeigte, dass die am häufigsten verwendeten statistischen Verfahren Chi2-Test, Exakter Test nach Fisher, Mann-Whitney U‑test, bivariate Korrelationen und Varianzanalysen sind (Fakis et al. 2014, S. 157). Mit diesen Verfahren können aber die qualitativen Daten inhärenten komplexen Beziehungen nur schwer erklärt oder interpretiert werden. Multivariate Verfahren, wie Clusteranalyse, Multivariate Regressionen, Mehrebenenanalyse oder Strukturgleichungsmodelle eignen sich besser, um multidimensionale Beziehungen in qualitativen Daten zu entdecken (Fakis et al. 2014, S. 157). Es gibt daher Entwicklungsbedarf für komplexe statistische Verfahren, mit deren Hilfe man Zusammenhänge in qualitativer Information modellieren kann (Fakis et al. 2014, S. 139).

Auch wenn die Voraussetzung einer zufälligen Auswahl bei inferenzstatistischen Verfahren oft bei qualitativen Projekten nicht erfüllt werden kann, die zunehmend auch bei standardisierten Umfragen fraglich ist (Bazeley 2010), können solche Verfahren dennoch sinnvoll sein, um weitere Analyseschritte zu planen. Außerdem können natürlich non-parametrische Tests oder Multidimensionale Skalierung, Cluster- und Korrespondenzanalysen eingesetzt werden, die weniger bis keine Voraussetzungen an die Daten stellen und weder voraussetzen, dass die Kategorien disjunkt, noch dass sie normalverteilt sind (Bazeley 2010). Sie dienen nicht dem Testen von Hypothesen, können aber explorative Analysen unterstützen.

Im Folgenden werden anhand von drei Beispielen Strategien zur Datentransformation aufgezeigt und methodologisch reflektiert. Der Fokus liegt auf der quantitativen Auswertung von Kodierungen, basierend auf interpretativer Auswertung qualitativer Daten – der Datentransformation in Form von Quantifizierung. Es wird gezeigt, wie qualitative Daten in quantitative überführt werden können, um damit die Erkenntnismöglichkeiten im Vergleich zu mono-methodischen Auswertungsstrategien zu erweitern und zwar durch Komplementarität, systematische Vergleiche und Verständniserweiterung.

Die Beispiele stammen aus drei Studien. Eine Studie befasste sich mit den Besonderheiten von Gruppendiskussionsverfahren bei Kindern und Jugendlichen, eine zweite mit der Anwendbarkeit von telefonischen und persönlichen Leitfadeninterviews bei Kindern und eine dritte mit der Motivation von „Social Entrepreneurs“ (Personen, die ein Unternehmen gründen, um sich langfristig für die Lösung sozialer Probleme einsetzen und sozialen Wandel vorantreiben, ohne Profit anzustreben). In allen drei Anwendungsbeispielen wurden Daten aus je einer Erhebung sowohl mit interpretativen als auch mit statistischen Verfahren analysiert. Dafür wurde ein Teil der gesammelten qualitativen Daten in standardisierte Werte und Codes überführt und während der Auswertung mit Ergebnissen qualitativer Analysen integriert.

2 Komplementarität durch Quantifizierung („Complementarity“)

Im ersten Beispiel liegt die Funktion des Mixing in der Komplementarität, das heißt, mit qualitativen und quantifizierenden Verfahren werden teils sich überschneidende, aber auch distinkte Aspekte eines Forschungsproblems untersucht. Dadurch ergänzen, illustrieren oder spezifizieren sich die Ergebnisse aus den unterschiedlichen Strängen gegenseitig (Caracelli und Greene 1993).

2.1 Forschungsfrage: Besonderheiten von Gruppendiskussionen mit Kindern

Zwar zeigt sich die Kindheitsforschung bei der Methodenentwicklung besonders innovativ und experimentierfreudig, aber bisher entwickelte Methoden sind kaum systematisch reflektiert und diesbezügliche Erfahrungen selten veröffentlicht (Fuhs 2000, S. 94). Ein Beispiel dafür sind Gruppendiskussionen, deren Anwendbarkeit bei Kindern und Jugendlichen methodologisch unterbeleuchtet ist. Gruppendiskussionen sind sehr „spezifische Interaktionstypen, die besondere (selbst-)darstellerische, narrative und auch argumentative Möglichkeiten bieten, andererseits aber auch entsprechende Kompetenzen und Bereitschaften erfordern“ (Neumann-Braun und Deppermann 1998, S. 244). Die Forschungsfrage lautet daher (Vogl 2005): Können Gruppendiskussionen bei Kindern angewandt werden? Welche methodischen und methodologischen Besonderheiten ergeben sich? Interaktive, diskursorische und kognitive Fähigkeiten gelten als zentral für die Durchführbarkeit von Gruppendiskussionen und bilden daher einen Analyseschwerpunkt. Eingeschätzt werden die Fähigkeiten mit Hilfe qualitativer und quantitativer Verfahren.

2.2 Datenerhebung

Insgesamt wurden fünf (altershomogene, gemischtgeschlechtliche) Gruppendiskussionen mit Teilnehmern im Alter von 6 bis 15 Jahren durchgeführt. Rekrutiert wurden die Teilnehmer aus zwei bewusst ausgewählten Schulen, aus denen wiederum zufällig aus einer Klassenliste acht bis zehn Personen ausgewählt wurden. Der Leitfaden war weniger inhaltlich als vielmehr basierend auf dem antizipierten Gruppenprozess gestaltet, den einzelne Fragen auslösen würden. So waren manche Themen auf Konsensfindung, andere auf das Entstehen von Diskursen etc. ausgelegt (Vogl 2005). Diese formalen „Aufgabenstellungen“ wurden bei allen Gruppen beibehalten, wenn auch das inhaltliche „Teilthema“ altersspezifisch aus dem für alle geltendem Rahmenthema Freizeit ausgewählt wurde. Die Gruppendiskussionen dauerten zwischen 45 und 60 min und wurden audiovisuell aufgezeichnet. Anschließend wurden verbales und nonverbales Verhalten sowie Adressaten von Kommunikation detailliert transkribiert.

2.3 Datenanalyse

Die Datenanalyse fokussierte auf drei Ebenen: Teilnehmer, Gruppe und Verlauf. Es interessierten eher formale Aspekte der Gruppendiskussionen, wie der Gesprächsablauf, gruppendynamische Prozesse und Rollendifferenzierung und dahinterliegende Fähigkeiten der Teilnehmer. Qualitative und quantitative Kennzeichen der Gruppendiskussionen wurden integriert, nicht zur gegenseitigen Validierung, sondern vielmehr zur Erweiterung und Vertiefung der Perspektive. Abbildung 1 fasst die Analyseschritte grafisch zusammen:
Abb. 1

Schematischer Ablauf der Datenanalyse im Projekt „Gruppendiskussionen mit Kindern“

In einem ersten, quantitativen Auswertungsstrang wurden die Anzahl gesprochener Worte, Wortmeldungen, „inoffizielle“ Gespräche, unverständliche Gesprächsteile sowie Pausen in Sekunden (während eines Gesprächsbeitrages und bei Sprecherwechseln) ausgezählt. Diese quantitativen Kennwerte wurden nach Teilnehmern und Fragekomplexen differenziert.

In einem zweiten, transformativen Strang wurden Aussagen anhand des Kategorienschemas der Interaction Process Analysis (IPA) nach Bales (1972) kodiert und zwar hinsichtlich Art und Adressaten der Interaktionen. Herzstück der IPA ist ein Kategoriensystem, mit dem sowohl die Häufigkeit als auch der Inhalt der Interaktionen erfasst werden können. Dieses Kategoriensystem besteht aus zwölf Kategorien, die zwei unterschiedlichen Bereichen zugeordnet werden können: einem aufgabenorientierten (Antworten: Kategorien 4 bis 6; Fragen: Kategorien 7 bis 9) und einem sozial-emotionalen Bereich (positive Reaktionen: Kategorien 1 bis 3; negative Reaktionen: Kategorien 10 bis 12). Die Kategorien sind als komplementäre Paare angeordnet, die von den Kategorien 6 und 7 nach außen weiterlaufen (Bales 1950; siehe Abb. 2). Den Paaren wird jeweils ein funktionales Problem zugeordnet, das in menschlichen Interaktionssystemen unabhängig vom spezifischen Ergebnis auftritt.
Abb. 2

Das Interactions-Prozess-Analyse(IPA)-Kategorienschema. (Quelle: Bales 1950, S. 9)

In der Umsetzung hieß das, dass Aussage für Aussage diese zwölf Codes vergeben wurden – wobei einer Wortmeldung natürlich mehrere Codes zugeordnet werden konnten. Zum Beispiel kann nach einer Zustimmung eine neue Information eingebracht werden, die von Lachen begleitet wird und an die sich eine Frage nach der Meinung der anderen Teilnehmer anschließt. Für diese Wortmeldung wurden dann die Codes 3, 6, 2, 8 vergeben. Allerdings kann jedem Teil einer Wortmeldung nur ein Code zugeordnet werden, also eine Information (Code 6) kann nicht gleichzeitig als Meinung (Code 5) kodiert werden. In der Praxis erwies sich das Kodierschema als leicht zu implementieren und die Trennschärfe der Kategorien war ausreichend gegeben, wenngleich manchmal eine detailliertere Untergliederung wünschenswert gewesen wäre.

Durch die Kodierung mit der IPA wurden die qualitativen Daten, also die verbalen und nonverbalen Äußerungen, in quantitative Merkmale transformiert und Interaktionsprofile und Interaktionsmatrizen (Wer-zu-Wem-Matrizen) erstellt. Die Interaktionsprofile charakterisieren Teilnehmer anhand der relativen Häufigkeiten ihrer Interaktionsarten. Im Vergleich unter den Teilnehmern wird dann zum Beispiel ersichtlich, wer in der Gruppe stärker sozial-emotional beteiligt ist oder wer häufig Meinungen äußert. Durch die Wer-zu-Wem-Matrizen wurde die jeweilige Richtung der Interaktionen repräsentiert: Beiträge konnten an einzelne Personen, an die Moderatorin oder die gesamte Gruppe gerichtet sein. Auch diese Information liefert auf Teilnehmerebene wichtige Erkenntnisse für die Rollendifferenzierung. Unterstützt durch die grafische Darstellung der Interaktionsrichtung und -intensität unter den Teilnehmern, konnte das Beziehungsnetz der Gruppen verdeutlicht werden. Es zeigte sich, ob und welche Cliquen sich bildeten oder wie stark einzelne Teilnehmer involviert waren und wie stark die Gruppe oder einzelne Teilnehmer auf die Moderatorin fixiert waren. Auch Interaktionshäufigkeiten zwischen Jungen und Mädchen sowie mögliche Altersunterschiede konnten auf diese Weise untersucht werden.

Die durch Auszählungen und Transformation erhaltenen quantitativen Merkmale ermöglichten einen Überblick über das umfangreiche Diskussionsmaterial, abstrahierten von inhaltlichen Aussagen und erleichterten Vergleiche auch zwischen den Altersgruppen. Da aber diese quantitativen Kennzahlen noch keine Aussage über die inhaltliche „Qualität“ der Gruppendiskussionen zuließen, wurden im dritten, qualitativen Strang die Aussagen der Teilnehmer inhaltlich analysiert, um den Beitrag einzelner Personen innerhalb der Gruppe und für den Verlauf der Gruppendiskussion zu evaluieren und die in einer Altersgruppe vorherrschenden Fähigkeiten zu identifizieren. Dazu wurde das gesamte Material im Hinblick auf verbale, kognitive und soziale Fähigkeiten untersucht. Grundlage waren wichtige Konzepte aus der Entwicklungspsychologie. Unter sozialen und interaktiven Kompetenzen wurden die Fähigkeit zur Dezentrierung (Fähigkeit zum Perspektivenwechsel), der Umgang mit abweichenden Meinungen, die Koordination verschiedener Perspektiven, Gerechtigkeitsdenken, Gruppendynamik und Konformität/Gruppendruck subsummiert. Bezüglich kognitiver Kompetenzen waren verbale, argumentative und diskursive Fähigkeiten aber auch die Orientierung am Moderator wichtig.

Die Erkenntnisse aus den drei Analysesträngen wurden zu Teilnehmer und Gruppenprofilen integriert. Die Teilnehmertypologie ist eine Art „Aktivitätsprofil“ (auch der Moderatorin) und gab auf Basis der Interaktionsmatrizen und der inhaltlichen Beiträge Auskunft über die Stellung in der Gruppe und wichtige Verhaltensweisen. Quantitative Merkmale, wie Anzahl der Wortmeldungen, Wörter, inoffizielle Gespräche etc., und Interaktionsprofile halfen dabei. Für die Gruppen konnten anhand der quantitativen Merkmale zur Beteiligung, der Interaktionsprofile und Wer-zu-Wem-Matrizen sowie einer Charakterisierung der zugrundeliegenden interaktiven, kognitiven und verbalen Fähigkeiten pro Altersgruppe spezifische Verhaltensweisen und Formen der „Kooperation“ herausgearbeitet werden. Diese Typologien dienen als Vergleichsgrundlage zwischen den Altersgruppen, um jeweilige methodische Spezifika herauszuarbeiten. Für die Methode der Gruppendiskussion steht stärker das Gruppengefüge als einzelne Teilnehmer im Fokus.

2.4 Ergebnis

Zur Illustration der Ergebnisse sei beispielhaft die Altersgruppe der 6‑ bis 7‑Jährigen aufgeführt und einige Erkenntnisse aus dem Altersvergleich. Für die Validierung von Meinungen im Diskussionsprozess ist eine Bezugnahme der Teilnehmer untereinander Voraussetzung. Die Auswertung der Interaktionsmatrizen zeigte, dass bei den Erstklässlern die nötige „kollektive Orientierung“ aber fehlte und stattdessen die Moderatorin die zentrale Ansprechperson war. Auch die qualitative Analyse zeigt, dass es anstelle von Bezugnahmen viele vergleichsweise „unzusammenhängende“ Aussagen gab. Meinungsäußerungen blieben ohne tatsächliche, inhaltliche Auseinandersetzung mit Anderen. In der Gruppe gab es außerdem keine Rollendifferenzierung und damit keine klare Aufgabenteilung, vielmehr schien es, als müssten verschiedene Rollen, vor allem aufgabenbezogene, erst noch gelernt und geübt werden. Dadurch wurde vor allem die freie (d. h. ohne Anleitung der Moderatorin) Bearbeitung von Gruppenaufgaben erschwert. In der Beziehungsgrafik zeigten sich entsprechend keine besonders zentralen Akteure oder Cliquenbildung. Die Moderatorin war im Vergleich zu den anderen Altersgruppen aktiver und direktiver, um die Diskussion zu strukturieren und vor allem bei der Kompromissfindung zu helfen. Das wurde aus den Interaktionsanteilen und dem Interaktionsprofil ersichtlich.

Durch einen Vergleich der Interaktionsprofile der Altersgruppen zeigte sich, dass der Anteil der positiven Reaktionen bis zu den 12- bis 13-Jährigen immer mehr stieg, während der negative sozial-emotionale Bereich sank. Diese Entwicklung könnte durch wachsenden Konformitätsdruck bis zur Pubertät zustande gekommen sein, der gegen Ende der Pubertät wieder abnimmt, wenn gleichzeitig die Bedeutung der Gleichaltrigengruppe wieder etwas zurück geht, während sie vorher stetig anstieg. Anhand eines Vergleichs der Wortmeldungen bei den einzelnen Fragekomplexen zeigte sich, dass Gruppenarbeiten und Diskussionsthemen die größten Anteile an allen Wortmeldungen ausmachten. Allerdings verschob sich mit zunehmendem Alter der Teilnehmer der Schwerpunkt in Richtung Diskussionsthemen, während bei jüngeren Teilnehmern die Gruppenarbeiten ausführlicher behandelt wurden. Da die Verteilung der Wortmeldungen überwiegend durch die Teilnehmer gesteuert wurde, konnte man daraus schließen, dass die Teilnehmer mit zunehmendem Alter einerseits die Fähigkeiten für die Bearbeitung von Diskussionsthemen besaßen, weil sie auch Argumente vorbringen konnten etc. und ihnen andererseits diese Art der Fragestellung besser lag.

Ein Vergleich des Aktivitätsrankings der Teilnehmer ergab, dass mit zunehmendem Alter die Teilnehmer im Vergleich zur Moderatorin immer mehr selbst beitrugen. Dieser Aktivitätsanstieg auf Seiten der Teilnehmer war vor allem auf eine weitergehende Rollendifferenzierung zurückzuführen, d. h. nicht alle Teilnehmer trugen mehr bei, sondern die Schere zwischen aktiven und stillen Teilnehmern wurde größer. Denn mit steigendem Alter der Teilnehmer nahm auch die Anzahl der Schweiger zu. Tatsächlich waren mit zunehmendem Alter der Teilnehmer die Rollen eindeutiger zuordenbar und auch stärker ausgeprägt. Allerdings schienen sich die Führungspersonen von der Gruppe zu lösen und weniger die Aktivitäten der Teilnehmer zu koordinieren. Sie selbst initiierten weniger Prozesse, sondern traten als Sprecher der Gruppe gegenüber der Moderatorin auf. Anhaltspunkte dafür gab es bereits bei den Fünftklässlern, sehr ausgeprägt war dieses Verhalten dann bei den Neuntklässlern.

2.5 Methodische Reflexion

Dieser kurze Auszug aus den Forschungsergebnissen verdeutlicht, wie eng verzahnt qualitative, quantitative und transformierte Informationen sind. Die Interaktionsanalysen waren das Kernstück dieser Untersuchung, aber ohne die ergänzenden qualitativen Analysen wären Teilnehmerrollen deutlich unschärfer und oberflächlicher geblieben, ohne die zusätzlichen quantitativen Auszählungen wären Altersvergleiche und eine Charakterisierung des Diskussionsverlaufs schwieriger gewesen. In der Integration der Stränge konnten Zusammenhänge und Muster aufgedeckt werden, die mit einem einzelnen Strang nicht (oder nur sehr schwer) sichtbar gemacht werden hätte können. Zugespitzt formuliert haben die Stränge für sich genommen nur beschränkten Aussagegehalt. In Kombination wird die Information für die Beantwortung der Forschungsfrage „ertragreicher“. Nur in Kombination ergibt sich ein umfassendes Bild, sodass Metaschlussfolgerungen zu altersspezifischen Besonderheiten gezogen werden konnten (Vogl 2005).

Die externe Generalisierung der Ergebnisse ist zwar nicht möglich, eine theoretische jedoch schon. Wenn die Anzahl der Gruppendiskussionen auch auf fünf beschränkt war, so ermöglichen die detaillierten Analysen aus verschiedenen Blickwinkeln doch Erkenntnisse über altersspezifische Verhaltensweisen in Gruppendiskussionssituationen, die aufschlussreich für die generelle Anwendung von Gruppendiskussionen sein können.

Die Gefahr bei dieser Form der Quantifizierung liegt tendenziell in der Eigendynamik, die sich entwickeln kann. Fängt man an zu quantifizieren, tauchen immer neue Möglichkeiten und Aspekte auf, die man auszählen könnte. Hier bedarf es einer gewissen Disziplin und auch vorher definierter Stopp-Punkte, zu denen Auszählungen dann erst interpretiert und mit den qualitativen Ergebnissen integriert werden, bevor neue Quantifizierungen vorgenommen werden. Mit anderen Worten, die Quantifizierung muss einer Kosten-Nutzen-Abwägung folgen und darf nicht Selbstzweck werden oder gar die qualitative Analyse ersetzen.

3 Systematische Vergleiche durch Quantifizierung („Corroboration“)

Beim zweiten Beispiel handelt es sich um ein klassisches Transformationsdesign, bei dem qualitative Informationen kodiert und dadurch quantifiziert und statistisch ausgewertet wurden. Das Ziel dieser Vorgehensweise war eine systematische Analyse von Alterseffekten beim Zustandekommen von „weiß nicht“-Antworten, indem der Entstehungskontext und auch die nach einer „weiß nicht“-Antwort folgenden Äußerungen berücksichtigt wurden. Das Datenmaterial wurde durch die Transformation handhabbar gemacht und Vergleiche zwischen den Altersgruppen erleichtert. Die Analyse folgte in weiten Teilen der quantitativen Logik des Hypothesentests.

3.1 Forschungsfrage

Im Interviewprozess kann es aus Forschersicht zu unpassenden oder unerwünschten Antworten kommen, eine davon kann „weiß nicht“ sein. Ein Grund für „weiß nicht“-Antworten können kognitive Fähigkeiten sein, aber zum Beispiel auch Unsicherheit bezüglich des eigenen Wissens oder der Erwartungen, die mit einer Frage oder Antwort verbunden sind. Mit Ursachen und Bedeutungen von „weiß nicht“-Antworten befasst sich die Detailanalyse (Vogl 2012b) im Rahmen der Studie zu Leitfadeninterviews mit Kindern (Vogl 2012a). Zunächst wurde die Literatur zum Frage-Antwortprozess (Tourangeau et al. 2000) und zu Item-Nonresponse in Survey-Interviews (Beatty et al. 1998) zu einem theoretischen Modell über die Entstehung von „weiß nicht“-Antworten integriert. Als mögliche Ursachen für „weiß nicht“-Antworten wurden das „Erhebungsinstrument“ (research instrument), der „kognitive Zustand“ (cognitive state), die „Beurteilung der Angemessenheit“ (adequacy judgement) und die „kommunikative Intention“ (communicative intent) konzeptualisiert. Basierend auf den Ergebnissen anderer Studien wurden vier Hypothesen formuliert:

H 1:

Jüngere Befragte antworten häufiger mit „weiß nicht“ aufgrund von Problemen mit dem Instrument, bzw. der Interview- oder Leitfadenfrage (Erhebungsinstrument) als ältere.

H 2:

Bei jüngeren Befragten sind mehr „weiß nicht“-Antworten auf fehlendes oder unzureichendes Wissen zurückzuführen (kognitiver Zustand).

H 3:

Jüngere Befragte geben häufiger „weiß nicht“-Antworten, weil diese als angemessene Antwort angesehen werden (Beurteilung der Angemessenheit).

H 4:

Bei jüngeren Befragten sind „weiß nicht“-Antworten aufgrund der Kommunikationsintention seltener (d. h. „weiß nicht“ soll eine inhaltliche Antwort vermeiden) (kommunikative Intention).

3.2 Datenerhebung

Mit insgesamt 56 Kindern im Alter von 5 bis 11 Jahren wurden jeweils ein telefonisches und ein face-to-face-Leitfadeninterview geführt, insgesamt also 112 Interviews. Die Kinder wurden zufällig aus einem bewusst ausgewählten Kindergarten, einer Grund-, einer Hauptschule und einem Gymnasium rekrutiert. Es handelte sich um eine faktorielle Versuchsanordnung, bei der der Effekt der Interviewsituation (telefonisch oder face-to-face) auf das Verhalten der befragten Kinder unterschiedlichen Alters untersucht wurde. Alle Interviews wurden transkribiert und in MAXQDA importiert.

3.3 Datenanalyse

Die Ergebnisse der qualitativen Analyse werden in quantitative Daten transformiert und varianzanalytisch ausgewertet. Abb. 3 fasst die Analyseschritte grafisch zusammen.
Abb. 3

Schematischer Ablauf der Auswertung zur Studie „Bedeutung von ‚weiß nicht‘“

Bisherige Forschung zu „weiß nicht“-Antworten oder Item-Nonresponse basiert sehr stark auf Daten aus Survey-Interviews mit Erwachsenen. Da es sich aber bei Kindern um eine besondere Zielgruppe handelt und nicht per se von einer Übertragbarkeit der Erkenntnisse über Erwachsene auf Kinder ausgegangen werden kann, wurde zunächst explorativ vorgegangen: Als erstes wurden alle „weiß nicht“-Antworten (und Variationen wie „weiß es nicht“ oder „weiß ich nicht“) mit Hilfe von MAXQDA aufgerufen und deren Gesprächskontext interpretiert. In Auseinandersetzung mit dem eigenen empirischen Material wurde iterativ ein Kodierschema entwickelt und zunehmend verfeinert, anhand dessen die „weiß nicht“-Antworten kategorisiert wurden. Es ergaben sich zwölf unterschiedliche Kategorien zur Entstehung oder Bedeutung von „weiß nicht“-Antworten (siehe Tab. 1).
Tab. 1

Ursachen für „weiß nicht“-Antworten und deren „Messung“

1. Erhebungsinstrument

1.1 Verständnisschwierigkeiten bei der Frage

1.2 Antwortschwierigkeiten

2. Kognitiver Zustand

2.1 Fehlende Erinnerung

2.2 Fehlendes Wissen

2.3 Problem in Antwortgenerierung, weil Angemessenheit nicht eingeschätzt oder die vorhandene Information nicht in eine Antwort integriert werden kann

2.4 Antwortfindung zu anstrengend

2.5 Noch nicht darüber nachgedacht

2.6 Indifferenz

2.7 Vorherige Aussage kann nicht begründet werden

3. Beurteilung der Angemessenheit

3.1 Keine weitere Information (notwendig)

3.2 Ausdruck von Unsicherheit

4. Kommunikative Intention

4.1 Antwortvermeidungsstrategie bei einer heiklen Frage

Anschließend wurden die „weiß nicht“-Antworten von einem zweiten, unabhängigen Kodierer ebenfalls nach diesem Kodierschema kodiert. Für alle zwölf Einzelkategorien ergab sich ein Kappa von 0,72. Das entspricht einer Übereinstimmung von 75 %. Für die statistische Analyse wurden diese zwölf Codes den vier Hauptkategorien „Erhebungsinstrument“, „kognitiver Zustand“, „Beurteilung der Angemessenheit“ und „kommunikative Intention“ zugeordnet (siehe Tab. 1). Durch diese Gruppierung stieg die Übereinstimmung der beiden Kodierer auf 91 % (Kappa = 0,85). Nicht übereinstimmende Codes wurden diskutiert und vereinheitlicht. Sowohl die Einzelwerte als auch die gruppierten Variablen wurden in SPSS übertragen und die Altersgruppen hinsichtlich dieser Variablen varianzanalytisch verglichen.

3.4 Ergebnisse

Die Ergebnisse zeigten zum einen, dass zwei Drittel und damit die Mehrheit der „weiß nicht“-Antworten auf den „kognitiven Zustand“ zurückzuführen und dadurch „angemessen“ oder nicht vermeidbar waren. Es gibt aber keinen linearen Zusammenhang zwischen „weiß nicht“-Antworten und dem Alter der Befragten, sondern eher U‑Kurven („Erhebungsinstrument“ und „Beurteilung der Angemessenheit“) oder inverse U‑Kurven („kognitiver Zustand“ und „kommunikative Intention“), denen zufolge sich die 5‑ und 11-Jährigen ähnlicher sind als die 7‑ oder 9‑Jährigen (siehe Abb. 4).
Abb. 4

„Weiß nicht“-Antworten und ihre Ursachen im Altersvergleich

Um die vorher genannten Hypothesen zu testen, wurden Varianzanalysen mit dem Alter der Befragten als Gruppierungsvariable durchgeführt. Die Ergebnisse und etwaige Signifikanzen sind in Tab. 2 zusammengefasst.
Tab. 2

Ergebnisse zum Altersgruppenvergleich mittels ANOVA

 

Alterseffekt

Mittelwert

Eta2

„Weiß nicht“ gesamt

Nein

7,7143

0,045

Erhebungsinstrument

Nein

0,4643

0,010a

Kognitiver Zustand

Ja

5,0357

0,155a

Beurteilung der Angemessenheit

Ja (auf 10 %-Niveau)

1,9821

0,122a

Kommunikative Intention

Ja (auf 10 %-Niveau)

0,2321

0,115b

aTransformation zur Quadratwurzel aufgrund einer Verletzung der Homogenitätsannahme

bHomogenitätsannahme trotz Transformation verletzt

Hypothese H 1, dass jüngere Befragte häufiger „weiß nicht“ aufgrund von Problemen mit der Erhebungsfrage antworten würden, bestätigte sich nicht (F3 = 0,18; p = 0,91). Dagegen bestätigte sich der vermutete Zusammenhang zwischen „weiß nicht“-Antworten aufgrund des kognitiven Zustandes und dem Alter (F3 = 3,18; p = 0,03, eta2 = 0,15). Ein post-hoc-Test zeigte, dass sich die 11-Jährigen signifikant weniger solcher Antworten gaben als die drei anderen Altersgruppen.

Hypothese H 3, dass jünger Befragte häufiger „weiß nicht“ antworten aufgrund einer subjektiven Beurteilung der Angemessenheit konnte nur auf einem 10 %-Niveau bestätigt werden (F3 = 2,42; p = 0,07; eta2 = 0,12). Trennt man allerdings die Unterkategorien des Codes „Beurteilung der Angemessenheit“, zeigte sich, dass mit zunehmendem Alter „weiß nicht“ als Signal für die Einschätzung, es wurde bereits genug Information in dieser Sache gegeben oder zum Beenden einer Aufzählung, seltener wurde (F3 = 7,02; p < 0,001; eta2 = 0,29). Im Gegensatz dazu nahm aber „weiß nicht“ als Ausdruck von Unsicherheit mit dem Alter deutlich zu (F3 = 6,81; p = 0,001; eta2 = 0,28). In Summe oder für die Gesamtbetrachtung der Variablen Beurteilung der Angemessenheit hoben sich diese beiden Effekte gegenseitig auf.

Die Ergebnisse der Varianzanalyse weisen auch bei Hypothese H 4 – mit zunehmendem Alter werden „weiß nicht“-Antworten aufgrund der kommunikativen Intention seltener – nur auf einen signifikanten Unterschied zwischen den Altersgruppen auf einem 10 %-Niveau (F3 = 2,25; p = 0,09; eta2 = 0,11). Es ist zu vermuten, dass ältere Kinder andere Vermeidungsstrategien entwickelt haben, wenn sie heikle Fragen nicht beantworten wollen.

3.5 Methodische Reflexion

Die Ergebnisse der Varianzanalysen können zwar nicht auf eine Grundgesamtheit verallgemeinert werden, aber sie sind ein wichtiges Hilfsmittel, um die Altersgruppen systematisch statistisch vergleichen zu können. Für Gruppenvergleiche wie diesen eignen sich Varianzanalysen oder t‑Tests. Bei der Quantifizierung qualitativer Codes und der anschließenden statistischen Analyse muss natürlich immer das Skalenniveau berücksichtigt werden, das häufig nominal oder ordinal ist. Geht es aber um die Häufigkeit des Vorkommens, sind die Variablen metrisch. Bei sehr feingliedriger Kodierung kann es außerdem zu geringen Fallzahlen kommen, was zu einer niedrigen Teststärke oder einem hohen Fehlerrisiko zweiter Art führen kann, das heißt, dass hypothesenkonforme Befunde nur aufgrund des beschränkten Datenmaterials nicht-signifikant erscheinen können. Das war eines der Probleme in dieser Studie.

Die Entwicklung eines qualitativen Kodierschemas ist immer zu einem gewissen Grad subjektiv, die vergleichsweise gute Intercoder-Reliabilität bekräftigt aber die Angemessenheit dieses Schemas (jedenfalls für die hier zugrundeliegenden Daten). Trotzdem suggerieren die statistischen Tests eine Genauigkeit, die so vielleicht nicht gegeben ist. In vergleichbaren Transformationsdesigns müsste thematisiert werden, ob es gerechtfertigt ist, dass die Häufigkeit des Vorkommens eines Codes mit der Relevanz gleichzusetzen ist. Das ist gerade bei inhaltlichen Kodierungen sicher nicht unbedingt der Fall, muss aber themenspezifisch entschieden werden.

Trotz dieser Einschränkungen besteht die Stärke dieses Vorgehens darin, dass durch die Transformation des qualitativen Kategoriensystems in quantitative Variablen Vergleiche systematisiert und Hypothesen getestet werden können. Die Auswertung, bei der qualitative und quantitative Daten kombiniert wurden, trägt sowohl der Informationsfülle Rechnung, ermöglicht es aber, gleichermaßen Vorwissen einzubeziehen und Hypothesen zu testen.

4 Verständniserweiterung durch Quantifizierung („Completeness“)

Im letzten Beispiel war das Ziel, durch Quantifizierung die Erkenntnismöglichkeiten zu erweitern und ein nuancierteres Verständnis der Interviewdaten zu erlangen. Dafür wurden die qualitativen Leitfadeninterviews sowohl inhaltsanalytisch als auch explorativ-statistisch ausgewertet und mit Hilfe von Netzwerkgrafiken visualisiert, um die „mentale Struktur“ von Konzepten aufdecken zu können. Diese mentale Struktur wird oder kann von den befragten Experten auf diese Weise nicht direkt verbalisiert werden.

Dieses explorative Vorgehen eignet sich nicht für Hypothesentests, bietet aber eine neue Perspektive. Qualitative und quantitative Ergebnisse sind dadurch komplementär und decken je unterschiedliche Aspekte der Fragestellung ab. Zusammenhänge werden durch die grafische Darstellung plastischer und eingängiger als in einer narrativen Beschreibung durch die Forscher. Die qualitativen Befunde können dadurch an Überzeugungskraft und Nachvollziehbarkeit gewinnen. Bazeley (2009, S. 205) bezeichnet diese Form der Datenanalyse als „inherently mixed data analysis“.

4.1 Forschungsfrage

In dieser Studie standen Social Entrepreneurs und deren Motivation, Rolle, Ziele und die Bedeutung ihrer sozialen Beziehungen im Mittelpunkt (Christopoulos und Vogl 2015). Die grundlegende Frage war, was Social Entrepreneurs zu ihrem altruistischen Handeln motiviert, welche Rolle der soziale Kontext spielt und was Erfolg aus persönlicher Sicht ausmacht. Hintergrund war, dass das Handeln der Social Entrepreneurs potenziell im Widerspruch zu Annahmen über wirtschaftliche Motive steht, da die unternehmerischen Aktivitäten altruistisch und nicht auf Gewinnmaximierung ausgerichtet sind. Gängige Theorien zum Verständnis von Wirtschaftsakteuren erscheinen angesichts der vielfältigen Rollen und Agenden der Social Entrepreneurs als unzureichend. Daher wurde ein explorativer Zugang gewählt.

4.2 Datenerhebung

Die Daten wurden 2012 in sechs Leitfadeninterviews mit bekannten Social Entrepreneurs im Süd-Westen Englands, die über ein Schneeballnominierungsverfahren identifiziert wurden (Christopoulos 2009), generiert. Die Interviews dauerten zwischen 40 Minuten und zwei Stunden. Der Leitfaden enthielt Fragen nach acht Schlüsselvariablen im Rahmen von Social Entrepreneurship: Motivation, wahrgenommene Gelegenheiten („opportunities“) und Beschränkungen („constraints“), Netzwerkgröße, Vertrauen, Netzwerkaktivitäten und unternehmerisches Handeln. Die Antworten der Befragten wurden aufgezeichnet.

4.3 Datenauswertung

Abbildung 5 systematisiert die Analyseschritte.
Abb. 5

Schematische Ablaufskizze der Studie „Motivation of Social Entrepreneurs“

Im ersten Teil der Auswertung wurde das Interviewmaterial inhaltsanalytisch ausgewertet (Doerfel 1998; Riessman 1993), um Themen und Argumentationslinien zu identifizieren. Daraus wurden dann Narrative und Fallprofile erstellt. Im zweiten Teil der Analyse wurden aus den thematischen Kodierungen zentrale Aussagen identifiziert. Eine Aussage ist die kleinste Texteinheit mit einem kohärenten Inhalt. Parallel dazu wurden sowohl aufgrund theoretischer Überlegungen als auch in vivo durch die iterative Kodierung zweier unabhängiger Kodierer Konzepte identifiziert, die Vorstellungen von Motivation, Erfolg, sozialen Netzwerken, Möglichkeiten, Hindernissen und Unternehmertum umfassten. Anschließend wurden die thematischen Aussagen (Texteinheiten) diesen Konzepten zugeordnet. Dadurch entstand eine Matrix mit Konzepten in den Spalten und Aussagen in den Zeilen, z. B. wurde die Aussage „Netzwerke sind fundamental für meinen Erfolg“ den Konzepten „Chancen (opportunities) sind relational“ und „Erfolg hängt von Netzwerken ab“ zugeordnet. Jede Aussage konnte also unter mehrere Konzepte subsummiert werden. Durch die Zuordnung der insgesamt rund 100 als zentral identifizierten Texteinheiten zu den 36 Konzepten entstanden 174 Kodierungen. Die Intercoder-Übereinstimmung lag bei einem Kappa von 0,82. Bei unterschiedlichen Zuordnungen zu Codes durch die beiden Kodierer wurde eine Einigung durch Diskussion erzielt.

Aus der 0‑1-Datenmatrix wurde zunächst ein bimodales Netzwerk erstellt, d. h. es gibt zwei Arten von Knoten (Texteinheiten und Konzepte), die zueinander in Verbindung stehen. Der Vorteil der bimodalen Netzwerke liegt darin, dass Einheiten mehr als einer Kategorie zugeordnet werden können. Durch die Möglichkeit, dass Aussagen auch unterschiedlichen Konzepten zugeordnet werden können, wurde der Vielschichtigkeit von Bedeutungen Rechnung getragen. Dieses bimodale Netzwerk wurde zu einem unimodalen Netzwerk transformiert, indem die Beziehung unter den Konzepten enthalten ist, und das mit den entsprechenden Statistiken analysiert werden konnte (Wasserman und Faust 1994). Konzepte sind dann verbunden, wenn sie gleiche Texteinheiten beinhalten. Die Stärke der Assoziation ist durch die Stärke der Verbindungslinien ersichtlich. Durch multidimensionale Skalierung (Kruskal 1964) wurden die Knoten auf einer zweidimensionalen Ebene so angeordnet, dass die Nähe im Netzwerkgrafen die konzeptuelle Nähe repräsentiert. Abbildung 6 zeigt exemplarisch eine solche Netzwerkgrafik, bei der die Nähe von Knoten als euklidische Distanz interpretiert werden kann und die Knotengröße die Eigenvektor-Zentralität widerspiegelt, d. h. ein Zentralitätsmaß eines Knoten berechnet auf der Basis der Zentralität der Knoten, mit denen er verbunden ist (Bonacich 1972).
Abb. 6

Eigenvektor-Zentralität

Dieses Netzwerk stellt eine Art von semantischem Netzwerk (Diesner und Carley 2011) dar. Monge und Eisenberg (1987) folgend gehen wir (Christopoulos und Vogl 2015) davon aus, dass semantische Netzwerke Assoziationen (basierend auf gleichen Interpretationen) repräsentieren und damit die mentalen Zusammenhänge der Befragten, ein Bedeutungsnetzwerk („web of meaning“; Doerfel 1998), darstellen. Entscheidend sind die Häufigkeiten des gemeinsamen Auftretens von Konzepten (d. h. wie viele Texteinheiten wurden einem bestimmten Konzept zugeordnet) und die Beziehung der Konzepte untereinander (wie viele Texteinheiten wurden den gleichen Konzepten zugeordnet). Die Bedeutung von Konzepten wird folglich durch die Nähe oder Distanz zu anderen Konzepten gezeigt. Diese Querverbindungen in der Netzwerkgrafik geben ein Bild des mentalen Beziehungsgeflechts der Befragten. Diese Grafik kann als heuristisches Werkzeug und für weitere qualitative Analysen dienen (Diesner und Carley 2011).

4.4 Ergebnisse

Durch die narrative Analyse konnten wir feststellen, worin die Social Entrepreneurs ihren Beitrag zur Gesellschaft, zur Wirtschaft und politischen Entscheidungen („policy making“) sehen. Die qualitative Analyse führte zu einem Überblick über aufgekommene Themen und Interpretationen durch die Befragten. Durch die Konzept-Netzwerke, angelehnt an semantische Netzwerke, konnten wir die qualitativen Analysen erweitern. Diese Konzept-Netzwerke ermöglichen Datenreduktion und Exploration, zum Beispiel wurde ersichtlich, dass der idealisierte „Unternehmerheld“ (Knoten 35) mit Effektuierung und der Suche nach Chancen (Knoten 38 und 32) verbunden ist. Der „Bricolage Unternehmer“ (Knoten 37) ist zwar auch mit der Suche nach Chancen verbunden (Knoten 32), aber auch mit Glück und Managementkompetenz (Knoten 31 und 29) usw. (siehe Abb. 6). Wir konnten die Trennung zwischen Konzepten zu politischen Rollen, die in einem Cluster mit Netzwerkkompetenz und Erfolg durch Netzwerke lagen, einerseits, und andererseits zivilen Rollen zeigen, die mit sozialer Gerechtigkeit und sozialem Kapital clustern. Wiederum distinkt davon ist ökonomische Agency, die in Zusammenhang mit Gelegenheiten und Managementaufgaben steht. Das heißt, dass diese Bereiche für die befragten Social Entrepreneurs konzeptuell getrennt waren. Diese politischen, zivilgesellschaftlichen und wirtschaftlichen Rollen kennzeichnen genau Spannungsfeld in dem Social Entrepreneurs agieren.

4.5 Methodische Reflexion

Durch die Kombination der interpretativen Vorgehensweise und der semantischen Netzwerkanalyse wurden qualitative und statistische Auswertungen verbunden. Einer qualitativen Analyse folgte die statistische Analyse mit einer Netzwerkgrafik, die wiederum qualitativ interpretiert wurde. Durch die zwei Zugänge zur Analyse konnten wir ein umfassenderes Verständnis der Motivation von Social Entrepreneurs gewinnen. Beide Analysestrategien fokussierten auf unterschiedliche Aspekte des Interviewmaterials: Einmal werden kognitive Zusammenhänge von Konzepten untersucht und das andere Mal die subjektive, verbalisierte Sinngebung und damit Realitätskonstruktion der Befragten (Riessman 1993). Die semantische Netzwerkanalyse ergänzt und erweitert die qualitative Inhaltsanalyse. Der Vorteil der Kombination der beiden Zugänge liegt in der Aufdeckung von Konzeptnetzwerken, also von kognitiven Strukturen, die dem Text zugrunde liegen und nicht verbalisiert wurden (oder werden konnten). Zusätzlich zu inhaltsanalytischen Ergebnissen können durch semantische Netzwerke Unterschiede in der Bedeutung und Häufigkeit des Vorkommens von einzelnen Konzepten aufgezeigt werden, die eben nicht nur an einem isolierten Konzept hängen, sondern der Einbettung von Konzepten in Netzwerken geschuldet sind (Diesner und Carley 2011, S. 596). Beide Verfahren sind explorativ und eigenen sich nicht für Hypothesentests.

Diese Form der Mixed-Methods-Analyse ist auch methodologisch explorativ und kann durch zukünftige Projekte sicher noch verbessert werden. Zum Beispiel wäre auch eine Clusteranalyse denkbar, um semantische Konzepte zu gruppieren und anhand ihrer Netzwerkmetriken anzuordnen.

5 Diskussion: Mehrwert durch Datentransformation und Quantifizierung

Häufig findet sich eine gewisse Skepsis gegenüber Quantifizierungen in der interpretativen Sozialforschung. Trotzdem findet sich oft eine „Quasi-Quantifizierung“ durch Ausdrücke wie „viele“, „häufig“, „selten“, „oft“ usw. Weil diese Ausdrücke aber sehr unpräzise sind, sind sie auch nur von geringem Nutzen. Qualitatives Arbeiten sollte Zahlen nicht per se ausschließen, denn Zahlen können die Überzeugungskraft von Ergebnissen erhöhen (Seale 1999, S. 138; Sandelowski et al. 2009). Einige elaborierte statistische Verfahren befördern qualitative Analysen, wenn auch die Generalisierbarkeit (im statistischen Sinne) beschränkt bleibt (Fakis et al. 2014, S. 154). Auch wenn Ergebnisse der statistischen Analysen nicht verallgemeinerbar sind, so können sie doch hilfreich für die Entwicklung neuer Theorien sein (Greene et al. 1989).

Reduktion von Komplexität gehört zum qualitativen Analyseprozess. Quantifizierung ist ein einfaches Mittel der Komplexitätsreduktion, vergleichbar mit Kodierung, Tabellen und Diagrammen (Sandelowski et al. 2009). Aversion gegenüber Zahlen ist kontraproduktiv, vielmehr muss die Verwendung von Zahlen im Forschungsprozess reflektiert werden. Wenn Quantifizierungen kritisch und kreativ eingesetzt werden, können sie die Komplexität qualitativer Daten ergänzen, erweitern, andere Analysemöglichkeiten oder Darstellungsform eröffnen.

Die statistischen Analysen quantifizierter qualitativer Daten dienen nicht als Ersatz für eine eingehende qualitative Analyse, sie können aber als komplementär gesehen werden (Fakis et al. 2014). Durch die unterschiedlichen Perspektiven, die unterschiedliche Datenarten bieten, eröffnen sich größere und auch andere Erkenntnismöglichkeiten. Quantitative Analysen können helfen, Muster zu identifizieren, die vielleicht durch qualitative Analysen nicht ersichtlich wären, weil komplexere Muster der qualitativen Analyse oft schwer zugänglich sind. Auf diese Weise können quantitative Daten (auch basierend auf einer qualitativen Erhebung) die Perspektive qualitativer Forscher komplementieren (Maxwell 2010).

Die Beispiele haben gezeigt, wie basierend auf qualitativen Interviews auch quantifizierte Informationen gewonnen werden können, mit unterschiedlichen Zielsetzungen und in unterschiedlichen Prozessen. Im ersten Beispiel wurden aus dem gleichen Datenmaterial Häufigkeitsauszählungen, durch Kodierung transformierte Daten und qualitative Analysen integriert zu einem sehr komplexen und umfangreichen Blick auf methodische Besonderheiten bei Gruppendiskussionen, an denen Kinder teilnehmen. Ziel war es, komplementäre Informationen zu gewinnen. Das zweite Beispiel veranschaulicht, wie Vergleiche durch Quantifizierung oder die statistische Analyse von Kodierungen erleichtert werden und Hypothesen getestet werden können. Im letzten Beispiel hat die statistische Bearbeitung von kodiertem Text zu einer Netzwerkgrafik geführt, die dann wieder qualitativ interpretiert wurde und zu neuen Erkenntnissen geführt hat, um ein erweitertes Verständnis des Gegenstandsbereichs zu erhalten. Eine gegenseitige Validierung ist dagegen eher schwer, weil Erkenntnismöglichkeiten qualitativer und quantitativer Daten sehr unterschiedlich sind.

Auch wenn die statistische Analyse qualitativer Information Vorteile hat, so gibt es Grenzen. Voraussetzungen statistischer Verfahren und beschränkte (statistische) Generalisierbarkeit sind die offensichtlichen. Quantifizierung kann qualitative Interpretationen nicht ersetzen, soll es auch nicht. Nur in einem durchdachten, begründeten Miteinander, Ineinander, Füreinander kann durch Transformationsdesigns ein tatsächlicher Mehrwert geschaffen werden. Es geht nicht um die Auswahl aus den methodischen Werkzeugkoffern mit den Labeln qualitativ oder quantitativ, stattdessen geht es um die bewusste und informierte Auswahl von Forschungsdesigns und -methoden unter Berücksichtigung der spezifischen praktischen Vorzüge (Pearce 2012) und einem „spirit of adventure“ (Greene 2007, S. 144). Es ist nicht darüber hinwegzutäuschen, dass diese Art der Mixed-Methods-Analysen oft explorativ und notwendigerweise iterativ ist und nicht linear oder in vorhersehbaren Bahnen verläuft.

Schwierigkeiten in Mixed Methods-Analysen generell und bei der Datentransformation im Besonderen können sein, dass durch quantitative Daten eine Generalisierbarkeit von Ergebnissen oder Genauigkeit suggeriert wird, die so nicht gegeben ist. Die Erkenntnismöglichkeiten und Sinnhaftigkeit von Quantifizierungsstrategien sind stark bedingt durch das zugrundeliegende Datenmaterial. Die Güte der qualitativen Codes, auf denen eine statistische Analyse basiert ist natürlich entscheidend, so wie bei Umfragen die Datenqualität unter anderem auch von der Datenerhebung abhängt. Was und wie kodiert oder ausgezählt wird ist subjektiv und unterliegt Interpretation oder Vorannahmen. Zudem hängt die Komplexität der Zusammenhänge, die erklärt werden können, von der Komplexität des statistischen Verfahrens ab, auch hier gibt es noch Bedarf an innovativen Verfahren.

Außerdem besteht die Gefahr, dass Belege reduziert werden zur Anzahl an Belegen. Zahlen können die Beschreibung eines Ereignisses nicht ersetzen, aber sie können Schlussfolgerungen untermauern (Maxwell 2010, S. 479). Die Ergebnisse und Daten aus qualitativen Interviews basieren in der Regel auf kleinen Stichproben (an Personen – zum Beispiel kann das n von Interaktionen sehr hoch sein, siehe Fallbeispiel 1). Deswegen werden im Prozess der Auswertung gewonnene quantitative Daten tendenziell den qualitativen untergeordnet sein.

Zahlen haben etwas Verführerisches. Es besteht eine gewisse Gefahr, sicher nicht bei allen Forschern in gleichem Maße, sich von Quantifizierungen davon treiben zu lassen, vor allem wenn Auszählungen komplementär zu qualitativen Auswertungen herangezogen werden. Wichtig ist die kontinuierliche Integration qualitativer und quantitativer Ergebnisse, um Quantifizierungen nicht zum Selbstzweck werden zu lassen. Die Macht der Zahlen wirkt sich also nicht nur auf die Nachvollziehbarkeit der Ergebnisse (wenn vielleicht auch nur vordergründig) aus, sondern auch auf den eigenen Forschungsprozess. Mehr ist nicht in jedem Fall besser und qualitative Forschung kann auch ohne Quantifizierung vollständig sein (Sandelowski 2000, S. 254).

Nicht thematisiert werden häufig Annahmen, Entscheidungen und Kompromisse, die einer Transformation zugrunde liegen: zum Beispiel, was kodiert wird, was transformiert wird (und vor allem was nicht!) oder welchem Gewicht den einzelnen Datenformen und Ergebnisse zukommt. Eine Annahme ist, dass qualitative und quantitative Daten distinkt sind und die Quantifizierung ein unidirektionaler, eindeutiger Prozess ist. Es muss aber erst einmal entschieden werden, was und wie gezählt wird und es muss eine Balance zwischen der (suggerierten) numerischen Präzision und der narrativen Komplexität gefunden werden (Sandelowski et al. 2009, S. 208). Angesichts der Schwierigkeiten der Datentransformation, müssen Forscher eine klare Vorstellung davon haben, warum sie quantifizieren und welchen Mehrwert sie erwarten.

Desiderata für die methodische Diskussion um Mixed Analysen ist ein methodenintegratives methodologisches Programm zur Mixed-Methods-Auswertung. Das ist aber kein Terminologie-Problem, sondern ein praktisches. Hier bedarf es dringend weiterer Beispiele und Modelle der Integration, denn letztlich ist die Integration verschiedener Daten in der Datenanalyse das Herzstück von Mixed Methods-Forschung und von einigen grundlegenden Annahmen hierbei (Sandelowski et al. 2009, S. 2019). Zentral sind kreative Verfahren der Transformation, innovative Techniken der statistischen Analyse und eine kritische Reflexion der Grenzen und Möglichkeiten von Transformationsdesigns.

Notes

Open access funding provided by University of Vienna.

Literatur

  1. Bales, Robert Freed. 1950. A set of categories for the analysis of small group interaction. American Sociological Review 15:257–264.CrossRefGoogle Scholar
  2. Bales, Robert Freed. 1972. Interaction process analysis. In International encyclopedia of the social science, Hrsg. David L. Sills, 465–470. London: Crowell Collier and Macmillan.Google Scholar
  3. Bazeley, Pat. 2009. Editorial: Integrating data analyses in mixed methods research. Journal of Mixed Methods Research 3:203–207.CrossRefGoogle Scholar
  4. Bazeley, Pat. 2010. Computer-assisted integration of mixed methods data sources and analyses. In Sage handbook of mixed methods in social & behavioral research, Hrsg. Abbas Tashakkori und Charles Teddlie, 431–467. Los Angeles, Calif.: Sage Publications.CrossRefGoogle Scholar
  5. Bazeley, Pat. 2012. Integrative analysis strategies for mixed data sources. American Behavioral Scientist 56:814–828.CrossRefGoogle Scholar
  6. Bazeley, Pat. 2016. Mixed or merged? Integration as the real challenge for mixed methods. Qualitative Research in Organisation & Management 11:189–194.CrossRefGoogle Scholar
  7. Beatty, Paul, Douglas Herrmann, Cathy Puskar und Jeffry Kerwin. 1998. “Don’t Know” Responses in Surveys. Memory 6:407–426.CrossRefGoogle Scholar
  8. Bergman, Max. 2008. The straw men of the qualitative-quantitative divide and their influence on mixed methods research. In Advances in mixed methods research. Theories and applications, Hrsg. Max Bergman, 11–21. Los Angeles, London: Sage.CrossRefGoogle Scholar
  9. Bonacich, Philip. 1972. Factoring and weighting approaches to status scores and clique identification Journal of Mathematical Sociology 2:113–120.CrossRefGoogle Scholar
  10. Brannen, Julia, und Rebecca O’Connell. 2015. Data Analysis I: Overview of data analysis strategies. In The Oxford handbook of multimethod and mixed methods research inquiry, Hrsg. Sharleen N. Hesse-Biber und Burke Johnson, 257–274. Oxford, New York: Oxford University Press.Google Scholar
  11. Bryman, Alan. 2008. Why do researchers integrate/combine/mesh/blend/mix/merge/fuse quantitative and qualitative research? In Advances in mixed methods research, Hrsg. Max Bergman, 87–100. Los Angeles; London: Sage.Google Scholar
  12. Bryman, Alan. 2016. Social research methods. Oxford, New York: Oxford University Press.Google Scholar
  13. Caracelli, Valerie J., und Jennifer C. Greene. 1993. Data analysis strategies for mixed-method evaluation designs. Educational Evaluation and Policy Analysis 15:195–207.CrossRefGoogle Scholar
  14. Christopoulos, Dimitris. 2009. Peer esteem snowballing: A Methodology for expert surveys, In Eurostat conference for new techniques and technologies for statistics. Conference Proceedings. 171–179. Brussels.Google Scholar
  15. Christopoulos, Dimitiris, und Susanne Vogl. 2015. The motivation of social entrepreneurs: The roles, agendas and relations of altruistic economic actors. Journal of Social Entrepreneurship 6:1–30.CrossRefGoogle Scholar
  16. Diesner, Jana, und Kathleen M. Carley. 2011. Semantic networks. In Encyclopedia of Social Networking, Hrsg. G. Barnett, 595–598. London: Sage.Google Scholar
  17. Doerfel, Marya L. 1998. What constitutes semantic network analysis? A comparison of research and methodologies. Connections 21:6–26.Google Scholar
  18. Fakis, Apstolos, Rachel Hilliam, Helen Stoneley und Michael Townend. 2014. Quantitative analysis of qualitative information from interviews. Journal of Mixed Methods Research 8:139–161.CrossRefGoogle Scholar
  19. Flick, Uwe. 2004. Triangulation. Wiesbaden: VS Verlag für Sozialwissenschaften.CrossRefGoogle Scholar
  20. Fuhs, Burkhard. 2000. Qualitative Interviews mit Kindern. In Methoden der Kindheitsforschung, Hrsg Frederike Heinzel, 87–103. Weinheim: Juventa.Google Scholar
  21. Greene, Jennifer C. 2007. Mixed methods in social inquiry. San Francisco, CA: Jossey-Bass.Google Scholar
  22. Greene, Jennifer C., Valerie J. Caracelli und Wendy F. Graham. 1989. Toward a conceptual framework for mixed-method evaluation designs. Educational Evaluation and Policy Analysis 11:255–274.CrossRefGoogle Scholar
  23. Kelle, Udo. 2007. Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung. Wiesbaden: VS Verlag für Sozialwissenschaften.Google Scholar
  24. Kerrigan, Monica R. 2014. A framework for understanding community colleges’ organizational capacity for data use. Journal of Mixed Methods Research 8:341–362.CrossRefGoogle Scholar
  25. Kruskal, Joseph B. 1964. Nonmetric multidimensional scaling. Psychometrika 29:115–129.CrossRefGoogle Scholar
  26. Kuckartz, Udo. 2014. Mixed Methods. Wiesbaden: Springer VS.CrossRefGoogle Scholar
  27. Li, Shouming, Jules M. Marquart und Craig Zercher. 2000. Conceptual issues and analytic strategies in mixed-method studies of preschool inclusion. Journal of Early Intervention 23:116–132.CrossRefGoogle Scholar
  28. Maxwell, Joseph A. 2010. Using numbers in qualitative research. Qualitative Inquiry 16:475–482.CrossRefGoogle Scholar
  29. Monge, Peter R., und Eric M. Eisenberg. 1987. Emergent communication networks. In Handbook of organizational communication: An interdisciplinary perspective, Hrsg. Frederic M. Jablin, Linda L. Putnam, Karlene H. Roberts und Lyman W. Porter, 304–342. Newbury Park, CA: Sage.Google Scholar
  30. Neumann-Braun, Klaus, und Arnulf Deppermann. 1998. Ethnographie der Kommunikationskulturen Jugendlicher. Zeitschrift für Soziologie 27:239–255.CrossRefGoogle Scholar
  31. Niglas, Katrin, Mauri Kaipainen und Jaagup Kippar. 2008. Multi-perspective exploration as a tool for mixed methods research. In Advances in mixed methods research, Hrsg. Max Bergman, 172–188. London: Sage.Google Scholar
  32. Prein, Gerald, Udo Kelle und Susan Kluge. 1993. Strategien zur Integration qualitativer und quantitativer Methoden. Bremen: SFB 183 Universität Bremen.Google Scholar
  33. Onwuegbuzie, Anthony J. 2003. Effect sizes in qualitative research. Quality & Quantity 37:393–409.CrossRefGoogle Scholar
  34. Onwuegbuzie, Anthony J., und Charles Teddlie. 2003. A framework for analyzing data in mixed methods research. In Handbook of mixed methods in social and behavioral research. Hrsg. Abbas Tashakkori und Charles Teddlie, 351–383. Thousand Oaks: Sage.Google Scholar
  35. Onwuegbuzie, Anthony J., und Julie S. Combs. 2010. Emergent data analysis techniques in mixed methods research: A synthesis. In Sage handbook of mixed methods in social & behavioral research. Hrsg. Abbas Tashakkori und Charles Teddlie, 397–430. Los Angeles: Sage.CrossRefGoogle Scholar
  36. Onwuegbuzie, Anthony J., und John H. Hitchcock. 2015. Advanced mixed analysis approach. In The Oxford handbook of multimethod and mixed methods research inquiry. Hrsg. Sharleen N. Hesse-Biber und Burke Johnson, 275–295. Oxford, New York: Oxford University Press.Google Scholar
  37. Pearce, Lisa D. 2012. Mixed methods inquiry in sociology. American Behavioral Scientist 56:829–848.CrossRefGoogle Scholar
  38. Riessman, Cathrine K. 1993. Narrative Analysis. London: Sage Publications.Google Scholar
  39. Sandelowski, Margrete. 2000. Combining qualitative and quantitative sampling, data collection, and analysis techniques in mixed-method studies. Research in Nursing & Health 23:246–255.CrossRefGoogle Scholar
  40. Sandelowski, Margarete, Corrine I. Voils und George Knafl. 2009. On quantitizing. Journal of Mixed Methods Research 3:208–222.CrossRefGoogle Scholar
  41. Schnapp, Kai-Uwe, Delia Schindler, Thomas Gschwend und Joachim Behnke. 2006. Qualitative und Quantitative Zugänge: Eine integrative Perspektive. In Methoden der Politikwissenschaft, Hrsg. Joachim Behnke, Thomas Gschwend, Delia Schindler und Kai-Uwe Schnapp, 11–26. Baden-Baden: Nomos.Google Scholar
  42. Seale, Clive. 1999. The quality of qualitative research. Reprinted. London: Sage.CrossRefGoogle Scholar
  43. Seipel, Christian, und Peter Rieker. 2003. Integrative Sozialforschung. Weinheim: Juventa.Google Scholar
  44. Teddlie, Charles, und Anthony Tashakkori. 2009. Foundations of mixed methods research. Los Angeles: Sage.Google Scholar
  45. Tourangeau, Roger, Lance Rips und Kenneth Rasinski. 2000. The psychology of survey response. Cambridge: Cambridge University Press.CrossRefGoogle Scholar
  46. Vogl, Susanne. 2005. Gruppendiskussionen mit Kindern: methodische und methodologische Besonderheiten. ZA-Information 57:28–60.Google Scholar
  47. Vogl, Susanne. 2012a. Alter und Methode: Ein Vergleich telefonischer und persönlicher Leitfadeninterviews mit Kindern. Wiesbaden: Springer VS.Google Scholar
  48. Vogl, Susanne. 2012b. Children between the age of 5 and 11: what “don’t know” answers tell us. Quality & Quantity 46:993–1011.CrossRefGoogle Scholar
  49. Wasserman, Stanley, und Kathrin Faust. 1994. Social network analysis: Methods and applications. New York: Cambridge University Press.CrossRefGoogle Scholar
  50. Weaver-Hightower, Marcus B. 2014. A mixed methods approach for identifying influence on public Policy. Journal of Mixed Methods Research 8:115–138.CrossRefGoogle Scholar

Copyright information

© The Author(s) 2017

Open Access Dieser Artikel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Authors and Affiliations

  1. 1.Institut für SoziologieUniversität WienWienÖsterreich

Personalised recommendations