Aufstellungen erzeugen unendlich viele Informationen. Aus dieser Fülle an Daten jene herauszufiltern, die tatsächlich Neues enthalten, stellt eine methodische Herausforderung dar. In der Grounded-Theory-Methodologie (GTM) habe ich ein geeignetes Verfahren gefunden, das diesem Prozess Präzision und Regelgeleitetheit verleiht.

Die Methode wird mir dabei helfen, in den Aufstellungsdaten Unterschiede und neue Ideen für ein zukunftsorientiertes Marketing zu erkennen. Denn die GTM zielt nicht darauf, bestehende Theorien zu bestätigen. Vielmehr bietet sie ein methodologisches Rahmenkonzept, um „in den Daten schlummernde Theorien zu entdecken“ (Strauss im Interview mit Legewie & Schervier-Legewie, 2004:13). Barney Glaser und Anselm Strauss (1967/1999) ging es bei der Entwicklung des neuen Forschungsstils darum, dass in der Empirie beobachtete Daten möglichst unvoreingenommen in den Blick genommen werden: In den 1960er Jahren war ein solcher Forschungsansatz nachgerade revolutionär. Die beiden US-amerikanischen Soziologen entwickelten die GTM als Kritik gegen das damalige akademische Denken, das „die soziologischen Institute in bloße Ruhestätten der Theorien der ‚Großen Männer‘“ (Glaser & Strauss 1967/1999:19) verwandelten. Die GTM fordert eine unverstellte Sicht auf das Untersuchungsfeld und ein möglichst theoriefreies Vorgehen, weil tradierte Wege zu keinen neuen Erkenntnissen führen:

„Ohne uns dessen überhaupt bewusst zu werden, sind wir durch diese Literatur in unserer Herangehemsweise an die Datenanalyse voreingenommen. Oder: Wir sind so daran gewöhnt, Probleme auf bestimmte Art zu betrachten, dass wir uns unseren alten Denkpfaden im Kreis drehen und diese Wege anscheinend nicht durchbrechen können, auch wenn sie uns nicht helfen, die Ursachen der Probleme aufzudecken.“ (Strauss & Corbin, 1996:67)

Vielleicht ist es ja ganz anders?! Mit dieser Haltung leistet die GTM nicht nur einen Beitrag, „Realismus und Relativismus“ (Rennie, 2005) zu verbinden, sondern öffnet vor allem auch (Denk-)Räume für Ideen, die tatsächlich neu sind. Kreativität wird bei diesem Forschungsstil ein hoher Stellenwert beigemessen:

„Sie [die Kreativität] ist es, die den Forscher angemessene Fragen an die Daten stellen und Vergleiche anstellen läßt, die den Daten neue Einblicke in das untersuchte Phänomen und neue theoretische Formulierungen entlocken.“ (Strauss & Corbin, 1996:18)

Mit ihrem explorativen Fokus passt die GTM ideal zu meinem Forschungsvorhaben. Anselm Strauss und Juliet Corbin (Strauss & Corbin, 1990; Corbin & Strauss, 2008/2015) haben die GTM zu einem „pragmatistischen Forschungsstil“ (Strübing, 2014) ausgearbeitet, der für die noch junge Forschung mit Aufstellungen sowohl den nötigen Orientierung gebenden methodologischen Rahmen als auch eine hinreichende Flexibilität bezüglich der Theoriebildungstechnik bzw. dem „kreativen Entdecken des Neuen“ (Breuer et al., 2018:139) bietet.

1 Mikrozyklen

Im Zentrum meines in der Einleitung vorgestellten Forschungsdesigns – dem Regelkreis einer transformativen „aufdeckenden“ Forschung (Abbildung 1.1) – stehen die hermeneutisch-zirkulären „Mikrozyklen“ der GTM (Strübing, 2014:83 f.) bestehend aus Datenerhebung, Dateninterpretation und erneuter empirischer Überprüfung. Eine festgeschriebene Reihenfolge existiert beim Analyseverfahren der GTM nicht; vielmehr ist der tatsächliche Ablauf durch vielerlei gedankliches Hin und Her zwischen den einzelnen Schritten gekennzeichnet. Dieser iterative Prozess ist in der Abbildung spiralförmig dargestellt, da die im Kodierverfahren entwickelten erkenntnisleitenden Thesen mit zunehmender theoretischer Sättigung (Glaser & Strauss, 1967:61 f.; Strauss, 1991:49 f.; Strauss & Corbin, 1996:159), die in einem Prozess des permanenten Vergleichs erreicht wird, zur Entwicklung von provisorisch-hypothetischen Modellstrukturen führt.

Die Kreisförmigkeit des Kodierverfahrens liegt in einer methodologischen Besonderheit bei der Fallauswahl begründet, dem sogenannten „Theoretical Sampling“ (Strauss & Corbin, 1996:148 ff.). Demnach wird bereits nach der ersten Erhebungseinheit mit dem Auswerten der Daten begonnen, um unnütze „Berge von … Felddaten“ (Strauss im Interview mit Legewie & Schervier-Legewie, 2004:59) zu vermeiden. Das Theoretical Sampling ersetzt also die herkömmliche Zufallsstichprobe durch ein hypothesengeleitetes Vorgehen. Entscheidungen darüber, welche Daten insgesamt erhoben werden, ergeben sich erst begleitend zum Forschungsprozess:

„Diese Gesichtspunkte [des spezifischen Samplings] sollen sich aus der Datenanalyse und der Entwicklungsarbeit an der Theorie ergeben – sie müssen sich diesen Interessantheits-Status gewissermaßen verdienen. Sie sollen nicht apriorisch – ohne ‚emergierenden‘ theoretischen Anhaltpunkt – herangezogen werden.“ (Breuer et al., 2018:156)

Praktisch bedeutet das Prinzip des Theoretical Sampling, dass ich die verschiedenen Aufstellungen, die ich im Rahmen dieser Arbeit zur Datenerhebung genutzt habe, nicht im Vorhinein geplant habe, sondern forschungsprozessbegleitend, jeweils auf Basis der zuvor ausgewerteten Aufstellung überlegt habe, welches Aufstellungssetting im nächsten Schritt geeignet ist, um neues konzeptrelevantes Material hervorzubringen.

1.1 Datenerhebung

Jede Aufstellung wird in vollständiger Länge inklusive anschließender Nachbesprechung per Audio- und Videogerät aufgezeichnet. Die Stellvertretenden haben zuvor ihre Einwilligung gegeben, dass sie mit der Weiterverwendung der Bild- und Tonaufzeichnungen zu Forschungszwecken einverstanden sind. Auf Grundlage der Audio- und Videoaufzeichnungen wird das in der Aufstellung generierte Datenmaterial schriftlich protokolliert.

Abbildung 3.1
figure 1

(Eigene Darstellung in Anlehnung an Müller-Christ, 2016a:90)

Struktur einer Aufstellungspartitur.

Die Datensicherung per Audio-/Videomitschnitt gewährleistet, dass der gesamte Aufstellungsverlauf lückenlos dokumentiert ist und auch kleinste Sequenzen, die sich vielleicht erst im weiteren Verlauf des iterativen Forschungsprozesses als relevant erweisen, noch für eine detaillierte Auswertung verfügbar sind. Denn bereits in winzigen Ausschnitten kann manchmal ein Schlüssel für den gesamten Forschungsprozess gefunden werden. Die Abbildung 3.1 zeigt eine solch bezeichnende Sequenzminiatur aus der Aufstellung „Das innere Wesen des Marketing“ (ausführlich analysiert in Kapitel 7).

Die digitale Datensicherung – in Kombination mit einer Transkription – macht den Aufstellungsverlauf auch für Dritte nachvollziehbar und bedient damit ein zentrales Gütekriterium qualitativer Forschung, überdies ist sie nützlich im transdisziplinären Austausch mit Expert:innen.

Ein geeignetes Instrument für die Transkription der Aufstellungsdaten sind sogenannte „Aufstellungspartituren“ (Müller-Christ, 2016a:88 f.; Müller-Christ & Pijetlovic, 2018:365 f.) nach Vorbild der Feldpartitur zur Transkription von Videodaten (Moritz, 2012; Moritz & Corsten, 2018).

In der Partitur können alle in der Aufstellung generierten Daten eingetragen werden. Dazu gehören u. a. die Aussagen und Bewegungen der einzelnen Stellvertreter:innen sowie systemische Zusammenhänge wie etwaige Anschlussreaktionen und Wechselwirkungen. Die Kalibrierung der (Sinn-)Einheiten passe ich dem jeweiligen Analysefokus an. Ist meine Fragestellung detaillierter, kann ich auch kleinste Kommunikations- und Interaktionseinheiten einbeziehen und z. B. auch Mimik, Gestik oder Tonalität der Stellvertreter:innen transkribieren. Das Zwei-Achsen-System der Aufstellungspartitur ermöglicht, die verschiedenen Entwicklungen im Aufstellungsfeld sowohl im jeweiligen Verlauf als auch in ihrer Gleichzeitigkeit zu erfassen.

In der Aufstellungspartitur habe ich nicht nur empirische Beobachtungen während der Aufstellung, wie Aussagen der Stellvertreter:innen und deren Bewegungen, protokolliert, sondern auch Ideen, die während der Nachbesprechung entstanden sind, sowie meine eigenen inneren Wahrnehmungen, die ich während der laufenden Aufstellung und bei der Transkription des Videos beobachten konnte: spontane Reaktionen, Momente der Überraschung und Irritation sowie erste Geistesblitze. Diese Randnotizen liefern für den anschließenden Interpretationsprozess richtungsweisende Anhaltspunkte.

Besonders spontane Irritationen können Hinweise auf neue, wertvolle Informationen sein, die abseits der herkömmlichen Denkwege liegen. Doch der menschliche Geist schätzt Verwirrung weniger. Zur emotionalen Entlastung neigt er vielmehr dazu, empfundene Ambivalenzen schnell zu neutralisieren, indem er ihnen eine Bedeutung zuweist: richtig – falsch, gut – schlecht, wahr – unwahr, logisch – nicht logisch. Es bedarf also einer größeren inneren Leistung, offen zu bleiben und den Moment zwischen Beobachten und Bewerten der Irritation zu verlängern (Müller-Christ & Pijetlovic, 2018:79). In der Aufstellungspartitur erhalten Irritationen einen eigenen, sichtbaren Platz. Die Ausweisung eines extra ausgewiesenen „Überraschungsfeldes“ ermutigt, die eigene Irritiertheit nicht abzuwehren, sondern in der Schwebe zu lassen und als Chance für neue Erkenntnisse willkommen zu heißen. Das Feld in der Aufstellungspartitur ist sozusagen das äußere Äquivalent für die „innere Leerstelle, ein Platz für Neues“ (Bickel-Renn, 2010:196), die Forschende im Entdeckungszusammenhang benötigen: die Fähigkeit und Bereitschaft, das epistemologische Fenster geöffnet zu halten und tradierte Sehgewohnheiten – eigene sowie fremde – in Frage zu stellen.

Die Einträge in der Aufstellungspartitur stellen in mehrfacher Hinsicht bereits wichtige Präliminarien zur Dateninterpretation im Sinne der GTM dar. Die Transkription mithilfe der Aufstellungspartitur unterstützt die intensive Auseinandersetzung mit dem Untersuchungsmaterial, genau wie er in der Methodenliteratur für den iterativen Forschungsprozess gemäß GTM beschrieben wird:

„Man hört die Aufzeichnung immer wieder an, man beschäftigt sich mit der Datenfülle und vielen Einzelheiten, fügt (interpretationshaltige) Interpunktionen hinzu, gewinnt ein Gespür für und (neue) Eindrücke von Stimmqualität, Gesprächsatmosphäre, Gesprächsdynamik und Charakteristika der Beteiligten, es entwickeln sich themenbezogene Assoziationen und Ideen.“ (Breuer et al., 2018:247)

1.2 Dateninterpretation

Unabhängig von den unterschiedlichen Ausrichtungen, die der Forschungsstil der Grounded-Theory-Methodologie hervorgebracht hat, ist und bleibt das methodisch-prozedurale Herzstück das „Kodieren“: das „systematisierte Nachdenken“ (Breuer et al., 2018:137) über die gesammelten Daten. Festgeschriebene Regeln für die Datenanalyse gibt es nicht, vielmehr dienen die vorgeschlagenen Techniken und Verfahren der GTM als „Werkzeuge, die von Forschenden verwandt werden sollen, wenn sie diese als tauglich erachten, um methodologische Probleme zu lösen“ (Corbin, 2011):

„Keine Forscherin und kein Forscher sollte Kodierverfahren in einer Weise zu befolgen versuchen, dass der fließende und dynamische Charakter qualitativer Analyse verloren geht. Der Analyseprozess ist vor allem ein Denkprozess.“ (Corbin, 2011:168)

Die GTM kennt bei der Datenanalyse verschiedene Spielarten.Footnote 1 Das Besondere am Kodierverfahren der GTM ist, dass es – anders als bspw. bei der klassischen Inhaltsanalyse – ohne vorgefertigtes, nach theoretischen Gesichtspunkten aufgebautes Kategoriensystem startet. Die Kategorien werden erst im Prozessverlauf gegenstandsbezogen ge-/erfunden – „wenn auch nicht ohne präkonzeptuell geprägte theoretische Sensitivität [Hervorhebung im Original], die im Idealfall selbstreflexiv durchgearbeitet wurde und fortlaufend mit begleitender Aufmerksamkeit bedacht wird“ (Breuer et al., 2018:248).

Abbildung 3.2
figure 2

(Eigene Darstellung in Anlehnung an Breuer et al., 2018:139)

Auswertungsverfahren für Aufstellungsdaten gemäß der GTM.

Abbildung 3.2 zeigt das Schema, das ich für die Auswertung für Aufstellungsdaten gemäß der GTM entwickelt habe. Der Prozess der Dateninterpretation ist geprägt von iterativen Hin- und Herbewegungen und Wiederholungen innerhalb des gesamten Forschungsprozesses.

1.2.1 Erste Phase im Kodierverfahren

Im ersten Arbeitsschritt werden die Phänomene zunächst möglichst offen und frei von theoretischen Konzepten betrachtet und beschrieben. Im spielerisch-kreativen, assoziativen Umgang mit den Daten entstehen allmählich erste mögliche Lesarten in Form von Kodes und Kategorien-Kandidaten auf einer „gegenstandssensiblen Abstraktionsstufe“ (Breuer et al., 2018:252). Ziel ist es, über die reine Deskription hinauszugehen und auf erste provisorisch-hypothetische Konzepte hinzuarbeiten.

Diesen ersten Schritt der iterativen Kodierarbeit beginne ich bereits, wenn ich mit der Aufstellungspartitur arbeite. Mit der iterativen Durchsicht der Aufstellungspartitur (und oft ergänzend dazu der Videoaufzeichnung) beginnt das Kodieren im engeren Sinne. In der Phase des Offenen Kodierens sind die „Kodes“ bzw. Konzepte (die Begriffsverwendung ist in der Literatur nicht immer einheitlich) möglichst stark in den Daten verankert. Ideal, weil durch keine Theorie verstellt, sind dafür „Invivo-Kodes“, die sich direkt aus den Formulierungen der Repräsentanten ergeben. Auch die Positionierungen der Stellvertreter:innen sind ergiebige Quellen, die ungefiltert und direkt aus der Tiefe des Systems kommen.

Bei der weiteren iterativen Transkript-Lektüre sortiere ich die ge/erfundenen Kodes und fasse sie zu stärker aggregierten Sinneinheiten, sogenannten „Kategorien“ zusammen. Insbesondere die in der Partitur protokollierten Randnotizen sind hierbei nützliche Stichwortgeber. Wichtig an diesem Schritt ist, „die Kategorie zu benennen, so daß Sie sich an sie erinnern, über sie nachdenken und vor allem beginnen können, sie analytisch zu entwickeln“ (Strauss & Corbin, 1996:49).

Neben der Aufstellungspartitur sind in dieser ersten Phase auch Abbildungen der 3D-Raumbilder, die in der Aufstellung sichtbar geworden sind, ein nützliches Instrument. Dazu erfasse ich in einem ersten Schritt zum einen die jeweiligen Positionen der Stellvertreter:innen; ihre Ausrichtung und den Abstand zueinander und zum anderen Wortaussagen der Stellvertreter:innen. Im weiteren Kodierprozess ergänze ich das Strukturbild mit aggregierten Sinneinheiten. Die 3D-Raumbilder ermöglichen es, bereits in einer sehr frühen Kodierphase komplexe systemische Beziehungsgefüge zu erfassen.

Abbildung 3.3 zeigt eine beispielhafte Illustration eines 3D-Raumbildes mit Wortaussagen, die vielleicht als Invivo-Codes in die weitere Auswertung einfließen sowie ersten hypothetischen Kategorien (Akteursgruppen im Machtzentrum sowie an der Peripherie).

Abbildung 3.3
figure 3

(Eigene Darstellung; Figurenillustration: Antonia Wetzel)

3D-Raumbilder – ein nützliches Instrument zum Kodieren von Aufstellungsdaten gemäß GTM.

1.2.2 Zweite Phase im Kodierverfahren

Im zweiten Schritt des Kodierverfahrens werden die entwickelten Kategorien präzisiert, verdichtet und in eine erste theoretische Form gebracht. Manche Gruppen werden auch fallengelassen bzw. zurückgestellt, weil sie – vielleicht auch nur vorübergehend – uninteressant erscheinen. In dieser Kodier-Etappe werden Kategorien zunehmend höherer Ordnung, erste erkenntnisleitende Thesen sowie vorläufig-hypothetische Modell-Miniaturen entwickelt.

Für die Zusammenfügung der entwickelten Kodes/Kategorien zu modellhaften Verbindungen kennt die GTM verschiedene OrientierungshilfenFootnote 2, die auch für das Kodieren von Daten aus Aufstellungen nützlich sind – allerdings in einer modifizierten Form. Denn die mittels Aufstellungen produzierten Daten besitzen bereits in einem hohen Maße die Qualität, die in dieser Kodierphase üblicherweise erst (mithilfe des Instruments der Bedingungsmatrix) hergestellt werden soll. Viele Informationen über systemische Zusammenhänge, die bei herkömmlichen Methoden nur mit einigem methodologischen Aufwand aus den Daten extrapoliert werden können, gelangen bei Aufstellungen bereits in der Phase der Datenerhebung an die Oberfläche. Erste modellhafte Verbindungen lassen sich somit bereits aus dem in der ersten Kodierphase dokumentierten 3D-Raumbild ablesen. Die 3D-Raumbilder erfüllen somit bereits wichtige Funktionen, wie sie in im Rahmen der GTM mit der Bedingungsmatrix angestrebt werden, nämlich:

„1. Es hilft Ihnen, für das gesamte Spektrum an Bedingungen theoretisch sensibel zu sein, das auf das untersuchte Phänomen wirken könnte.

2. Es befähigt Sie, für das Spektrum der potenziellen Konsequenzen theoretisch sensibel zu sein, die aus Handlungen/Interaktionen resultieren.

3. Es unterstützt Sie dabei, Bedingungen, Handlungen/Interaktionen und Konsequenzen systematisch mit einem Phänomen in Beziehung zu setzen.“ (Strauss & Corbin, 1996:135)

Als nützliche methodologische Ergänzung zum 3D-Raumbild hat sich für mich das prominente GTM-Instrument des Paradigmas erwiesen. Im Übergang zur zweiten Kodierphase nutze ich (modifizierte) Paradigma-Darstellungen, um Kategorien und Beziehungsgefüge, die ich zuvor mittels Aufstellungspartitur und 3D-Raumbild erfasst habe, miteinander abzugleichen, zu verdichten und zu präzisieren. Mein Fokus liegt dabei – hier folge ich dem Vorschlag von Juliet Corbin (Corbin & Strauss 2008/2015:156 ff.) – auf den Komponenten Kontext (einschließlich Interventionen) sowie Inter-/Aktionen bzw. Beziehungsqualität. Für Letztere unterscheide ich bei Bedarf die Dimensionen Selbstbezug, Paar-/Gruppen-Relation sowie Systemebene. Für jede Aufstellung, je nach Erkenntnisinteresse und Aufstellungsdesign variiere ich das Schema (vgl. Paradigma-Darstellungen im elektronischen Zusatzmaterial).

Die Tabelle 3.1 zeigt exemplarisch einen Auszug aus dem Paradigma zur Aufstellung „Konsumsystem“: Die Beziehungsqualität (hier im systemischen Selbstbezug) sind in der ersten Spalte in deskriptiven Kategorien und Invivo-Codes erfasst. Der jeweilige Kontext (hier die Bewusstseinsebenen nach Spiral Dynamics) ist dabei jeweils farblich markiert. In der zweiten Spalte werden die ge/erfundenen Kategorien verdichtet und in einen ersten Gesamtzusammenhang gestellt.

Tabelle 3.1 Auszug einer Paradigma-Darstellung als ein Instrument zum Kodieren von Aufstellungsdaten gemäß GTM. (Eigene Darstellung)

Auf Basis der bis hierhin ge/erfundenen Kategorien und systemischen Verflechtungen verfasse ich Memos. Die Notizen, die ich seit Beginn des Forschungsprozesses schreibe, werden jetzt zu einem zentralen systematischen Instrument, weil ich sie zum Zweck der intersubjektiven Nachvollziehbarkeit dokumentiere. Im Rhythmus des von Glaser und Strauss geprägtem Leitsatz „Stop and memo!“ unterstützt mich die Memo-Arbeit beim Abgleich der sich abbildenden Interpretationslinien mit dem Datenmaterial. Ich führe konzeptionelle Ideen weiter aus, gehe interessanten Bildern und Metaphern nach, verfolge intuitive Assoziationen und vergleiche unterschiedliche Theorieansätze. – „All is data.“ – Im Sinne dieser zentralen Prämisse der GTM sind nützliche Heuristiken u. a. auch kontrastive Vergleiche, Einbezug der Etymologie eines Wortes sowie Metaphern und Analogien (Hagen et al., 2015:147 ff.; McGuire, 1997).

Das Memo-Schreiben unterstützt auch meinen persönlichen Reflexionsprozess, weil ich mich im zeitlichen Abstand selbst beobachten kann. Es ist somit ein re-entry i. S. Luhmanns (vgl. Abschnitt 1.3.1.2), mittels der ich mich selbst als Forschende beobachte: Bei welchen Aussagen der Stellvertreter:innen spürte ich Irritationen; welche spontanen Bilder lösten bestimmte Assoziationen bei mir aus; in welchen Punkten hat sich meine Perspektive im Untersuchungsverlauf verändert? Breuer et al. (2018:137) bezeichnen Memos als „ein zentrales Werkzeug der Entwicklung der Gedankenwelt des Forschenden auf dem Weg zur Theorie: ein Instrument zum Verfertigen von Gedanken durch Schreiben.“

Die Memo-Arbeit in der zweiten Kodierphase ergänze ich mit einem spielerischen Abgleich – dies ist nicht zu verwechseln mit einem eklektizistischen Stil – mit themenrelevanter Forschungsliteratur. Mein Vorgehen ist auch hier iterativ; ein gedankliches Hin und Her zwischen Theorien aus der Literatur und eigenen Beobachtungen. Das triangulierende Verfahren ist hilfreich, um die entwickelten vorläufig-hypothetischen Konzepte mit bestehenden Modellen zu kontrastieren oder auch durch alternative Evidenzen zu unterstützen.

Als vorläufiges Ergebnis der zweiten Kodierphase entsteht eine Vielfalt an ersten, provisorisch-vorläufigen Thesen und Ad-hoc-Hypothesen, die herkömmliche Perspektiven auf das Untersuchungsfeld erweitern und „idealerweise überraschende Inhalte haben“ (Müller-Christ & Pijetlovic, 2018:24). Die Thesen liefern keine binären (Wahr/Falsch-) Aussagen oder gar (Entscheidungs-)Gewissheiten. Vielmehr ist eine Sammlung unterschiedlicher Perspektiven auf das untersuchte System entstanden, die im nächsten Schritt als mehr oder als weniger nützlich für den eigenen Forschungsfokus bewertet werden müssen.

1.2.3 Dritte Phase im Kodierverfahren

Die komplexen Informationen müssen nun noch kompakt zusammengefasst und geordnet werden. In der dritten Phase geht es somit um den Gesamtzusammenhang „einer theoretischen Integration aller kategorialen Konzepte unter einer konsistenzstiftenden Logik“ (Breuer, 2018:284). Gemäß vielen Darstellungen der Ground Theory-Methodik, so auch in der Revision von Juliet Corbin (Corbin & Strauss, 2008/2015), geschieht dies unter dem konzeptuellen Dach einer vom Forschenden als zentral gesetzten „Kernkategorie“, um die sich die explizierten Kategorien anordnen lassen:

„Die Kernkategorie ist ein umfassender und abstrakter Begriff, durch den in kurzen Worten benannt wird, was nach Ansicht des Autors das hauptsächliche Thema oder Ergebnis der Studie ist. Wenn ein solches zentrales Konzept festgelegt ist, werden die übrigen Kategorien durch erklärende Ausführungen dazu ins Verhältnis gesetzt.“ (Corbin & Strauss, 2008/2015:199 f.; übersetzt von Breuer et al., 2018:286)

Breuer et al. (2018:286) weisen darauf hin, dass es sich hier „um eine apriorische Setzung [handelt], die sich nicht mit der Idee der Datenbegründetheit (Emergenz) rechtfertigen lässt“. Auch für die Forschung mit Aufstellungen, die sich auch durch ihre Datenvielfalt auszeichnet, erscheint mir die kategorische Beschränkung auf nur eine Kernkategorie ungeeignet. Allerdings habe ich festgestellt, dass die Ockhamsche Regel, gemäß der eine möglichst einfache Lösung anzustreben ist, eine wichtige disziplinierende Orientierung im Forschungsprozess bietet, weil das Entdecken einer neuen systemischen Perspektive (die bei jeder Aufstellung mannigfaltig entstehen) bei mir regelmäßig den Impuls erzeugt, diese zu differenzieren und zu verfeinern.

In der dritten Kodierphase besteht die Herausforderung also darin, zwischen Zentrum und Peripherie zu unterscheiden und die wesentlichen Kategorien und Beziehungsgefüge zu identifizieren bzw. zu definieren. Bei der Entwicklung dieser provisorisch-hypothetischen Modellstrukturen habe ich mich für das Skizzieren von Diagrammen, einer in der GTM üblichen Kreativtechnik (Breuer et al., 2018:189 ff.; Strauss & Corbin, 1996:169 ff.; Corbin & Strauss, 2008/2015:122 ff.) entschieden. Im fortlaufenden Abgleich mit den Daten entsteht so als vorläufiges Ergebnis einer jeden Aufstellung ein datenbegründetes Schaubild bzw. Diagramm, in dem beobachtete Kernkategorie(n) und deren systemischen Verbindungen untereinander logisch strukturiert und im Gesamtgefüge systematisiert dargestellt sind.

1.3 Erneute empirische Überprüfung (vs. Beenden des Zyklus)

Mit dem Prinzip des Theoretical Sampling ist der GTM, wie eingangs erläutert, ein Zurück zur Phase der Datenerhebung periodisch wiederkehrend angelegt. Die hermeneutische Erkenntnisspirale der Mikrozyklen ist prinzipiell niemals abgeschlossen. Vor dem Hintergrund eines pragmatischen Forschungsverständnisses rückt mit jedem zusätzlichen Sampling jedoch zunehmend die Frage in den Vordergrund, ob nun ein „ausreichendes“ Maß an epistemologischer Sicherheit erreicht ist. Neben „Sachzwängen“, die sich aus dem vorgegebenen Rahmen des Forschungsprojektes, wie Abgabetermin und Seitenumfang, ergeben, wird in der GTM als zentrales Entscheidungskriterium das Prinzip der Theoretischen Sättigung angeführt (Glaser & Strauss, 1967:61 f.; Strauss, 1991:49 f.; Strauss & Corbin, 1996:159). Dabei wird geprüft, ob das untersuchte Themenfeld soweit erschlossen bzw. das entwickelte hypothetische Konzept soweit ausformuliert ist, dass auch durch neue Daten (vorläufig) kein zusätzlicher Erkenntnisgewinn zu erwarten ist.

„Die zugrundeliegende Idee [der Theoretischen Sättigung] ist: Durch den analytischen Parcours des R/GTM-Verfahrens, die Konzept-/Kategorienbildung und die Modellierungsarbeit auf Basis der empirischen Fälle gelange ich approximativ zu einem finalen datenbegründeten Theoriegebilde, gewissermaßen zu einer gemeißelten, geschliffenen und polierten Skulptur, die sich im zyklisch-rekursiven Arbeitsprozess herausgebildet [sic!], bewährt und stabilisiert. Neu hinzukommende Daten irritieren diese Struktur in ihren theoretischen Grundzügen ab einer gewissen Elaborations-Stufe nicht mehr, sie wird nicht mehr ins Wanken gebracht.“ (Breuer et al, 2018:361)

Die Frage nach epistemologischer Sicherheit bleibt mit dem Prinzip der Theoretischen Sättigung offen. Erkenntnis ist in der GTM immer nur ein vorläufiges, vorübergehendes Verstehen. Im pragmatischen Denken des US-amerikanischen Philosophen und Logikers Charles S. Peirce ist die „Unfehlbarkeit in wissenschaftlichen Belangen … unwiderstehlich komisch“ (Peirce, 1931 zitiert nach Reichertz, 2015b:284). So werde ich, auch wenn die Erkenntnisse im Forschungsverlauf eine zunehmend höhere Komplexitätsstufe erreichen werden, stets versuchen, die entwickelten Thesen mit dem „notwendigen Zweifel, den jeder hat, der sich nicht täuschen will“ (Gadamer, 2002:141) zu belegen.

Am Ende des Forschungsprozesses steht ein hypothetischer Modellentwurf eines zukunftsorientierten Marketing. Die Heuristik, die ich dafür entwickelt habe, ist eine Kombination aus einem Instrument der GTM; die sogenannte „Bedingungsmatrix“ (Strauss & Corbin, 1996:135 ff.; Corbin & Strauss 2008/2015:160 ff.; Breuer et al., 2018:292 ff.) mit dem integralen AQAL-Modell – alle Quadranten, alle Ebenen – von Ken Wilber (2010:46ff; 81 ff.) in Verbindung mit dem Entwicklungsebenen der Spiral Dynamics (Beck & Cowan, 2007/2014; Graves, 2005). Ich werde diese Heuristik später noch detaillierter beschreiben, und zwar in Kapitel 13 als Grundlage für meine Modellentwicklung eines zukunftsorientierten Marketing.

2 Qualität im Forschungsprozess

Wie ich in der Einleitung bereits dargelegt habe, ist es bei qualitativen, explorativ ausgerichteten Forschungsarbeiten nicht sinnvoll, klassische Gütekriterien zur Qualitätssicherung anzulegen. Die Trias aus Objektivität, Validität und Reliabilität bietet keine geeignete Zielvorgabe, wenn der Fokus auf dem Entdecken tatsächlich neuer Ideen liegt, denn dass unterschiedliche Forscher:innen zu den gleichen kreativen Schlüssen kommen, ist weder absehbar noch wünschenswert. Das zentrale Gütekriterium meiner Arbeit ist deshalb – neben der Anforderung der intersubjektiven Nachvollziehbarkeit – das Maß an Nützlichkeit. Dabei geht es mir nicht um ein empirisch überprüfbares Richtig oder Falsch der entwickelten Thesen, sondern vorrangig um deren Nützlichkeit in der (transformativen) Praxis.

Daraus folgt die Frage nach der Überprüfbarkeit dieses Gütekriteriums: Wie kann „Nützlichkeit“ für transformative Praxis ermessen werden? Der Schlüsselbegriff hierfür heißt Anschlussfähigkeit. Aus meiner Sicht sind zwei Ebenen zu unterscheiden, die beide gleich wichtig sind: Anschlussfähigkeit an bestehende Erfahrungen und Konzepte einerseits und Anschlussfähigkeit an vorhandene Vorstellungswelten und Logiken andererseits.

2.1 Triangulation als Strategie der Theoriekonstruktion

Eine geeignete Alternative zur herkömmlichen Überprüfung von Forschungsergebnissen bietet das Prinzip der Triangulation. Im Zusammenhang der letztlich unerreichbaren epistemologischen Sicherheit qualitativer Wissenschaft bezeichnet Triangulation einen „Ansatz der Geltungsbegründung der Erkenntnisse, … wobei die Geltungsbegründung nicht in der Überprüfung von Resultaten, sondern in der systematischen Erweiterung und Vervollständigung von Erkenntnismöglichkeiten liegt“ (Flick, 2017:520). Triangulierende Verfahren können helfen, die methodologische Qualität zu erhöhen; vorausgesetzt, die Auswahl erfolgt begründet (Flick, 1992:32).

Im (selbst-)reflexiven Forschungsprozess der GTM sind gleich mehrere methodische Verfahren vorgesehen, die als Triangulation zu bezeichnen sind. So ist das Theoretische Sampling mit einer Daten-Triangulation gleichzusetzen (Flick, 1992:24; 2017:519). Auch die weiteren Kodierschritte lassen sich als triangulierendes Vorgehen beschreiben:

„Das Vergleichen, das gezielte Aufsuchen von Kontrasten ist eine der Grundoperationen der GTM (Glaser 1965). Es entsteht so etwas wie eine Triangulation – beispielsweise zwischen ‚einem Objekt‘ und unterschiedlichen Subjektsichtweisen darauf, diese sich wechselseitig [...] erhellen und kommentieren (Goodman 1984 [1978]). Aus derartigen Gegenüberstellungen und Vergleichen entsteht eine neue epistemologische Dimension. Gregory Bateson beschreibt diese aus einer ‚Differenzinformation‘ resultierende Erkenntnisqualität (in Analogie zum Prinzip des binokularen Sehens) als Tiefengewinn (1982, S. 88 ff.).“ (Breuer et al., 2011:429 f.)

Die GTM bietet somit einen geeigneten Rahmen für methodisch begründete Triangulationen. In der vorliegenden Arbeit habe ich neben der Daten-Triangulation, die bereits dem GTM-Prozess inhärent ist, einen weiteren Schwerpunkt darauf gesetzt, unterschiedliche interdisziplinäre Sichtweisen in den Forschungsprozess einzubeziehen:

Eine erste Perspektiven-Triangulation nehme ich regelmäßig bereits in der Phase der Datenerhebung vor. Unmittelbar nach jeder Aufstellung findet ein Austausch mit den an den Aufstellungen jeweils Beteiligten statt. Der Diskurs mit der Aufstellungsleitung, den Stellvertreter:innen sowie ggf. Beobachtenden dient – neben der gemeinsamen Entwicklung von ersten Ideen und Lesarten – der kommunikativen Validierung der Geschehnisse im Feld. Yvonna Lincoln und Egon Guba (1985:289 ff.) nennen eine solche mitlaufende qualitätssichernde Maßnahme auch „Member checking“.

Die Technik der Theorien-Triangulation kommt beim Memo-Schreiben in der zweiten Kodierphase zum Einsatz. Nicht nur, aber auch um die wissenschaftliche Anschlussfähigkeit meiner Analyseansätze zu prüfen, ziehe ich Forschungsliteratur heran. In der GTM wird der Rückgriff auf Forschungsliteratur zwar mit Blick auf die „theoretische Sensibilität“, also dem „Gespür dafür, wie man über Daten nachdenkt“ (Strauss, 1991:50) zurückhaltend bewertet, denn „wir müssen unsere Vorannahmen in Frage stellen, über unsere Erfahrung hinaus nach Antworten suchen und über die Literatur hinausschauen, wenn wir Phänomene entdecken und zu neuen theoretischen Formulierungen gelangen wollen“ (Strauss & Corbin, 1996:56). Dennoch findet das Heranziehen forschungsbezogener Literatur in der GTM ganz unterschiedliche Anwendungen (ebd.:33 ff.). Ich nutze Literatur in meiner Arbeit – vor allem während der explorativen Phasen – als Inspirationsquelle, dabei sind insbesondere auch divergente Beobachtungen bzw. Theorien wertvolle heuristische Quellen sein, die mich zu neuen Fragen anregen.

Zum Ende des ersten Forschungsabschnitts, dem analytischen Teil präsentiere ich meine bis dahin entwickelten vorläufigen Thesen Personen, die nicht unmittelbar am Forschungsprozess beteiligt sind. Für diese Perspektiven-Triangulation habe ich FachtagungenFootnote 3 und PublikationenFootnote 4 sowie Expert:innen-InterviewsFootnote 5 genutzt. Meine Gesprächspartner:innen sind Forschende, die ebenfalls mit der Aufstellungsmethode arbeiten sowie Kolleg:innen aus der Marketingpraxis und der Organisationsberatung. Die intensive Perspektiven-Triangulation zum Ende des Analyseteils war mir wichtig, um den eigenen blinden Flecken – zumindest ein wenig – auf die Spur zu kommen, bevor ich mit dem Erkunden neuer Möglichkeitsräume für ein anderes, zukunftsorientiertes Marketing, dem Hauptteil meiner Untersuchung beginne. Bei den Gesprächen, die ich mithilfe der produzierten 3D-Raumbilder strukturiert habe, konnte ich regelmäßig die Erfahrung bestätigen, dass die Forschung mittels Systemaufstellungen den Einstieg in einen interdisziplinären Dialog enorm erleichtert. Die transverbale Raumsprache wird Disziplinen übergreifend von Wissenschaft und Praxis gleichermaßen verstanden, so „dass innerhalb kurzer Zeit alle Beteiligten über die Aufstellungsbilder in einen intensiven Dialog treten können“ (Müller-Christ, 2016b:298).

2.2 Zum Messen der Nützlichkeit von Forschung

Mir geht es in dieser Arbeit nicht um eine adäquate Repräsentation sozialer Wirklichkeit, sondern vorrangig um die Nützlichkeit der entwickelten Thesen und hypothetischen Modellannahmen in einer transformativen Praxis. Eine einfache, faktische Überprüfung, ob meine Forschungsergebnisse diese Anforderung tatsächlich erfüllen, ist unmöglich. Denn die entwickelten hypothetischen Entwürfe zeigen mögliche Perspektiven aus einer Vielzahl möglicher Perspektiven auf eine prozessuale Realität sowie emergenter Möglichkeitsräume zukünftiger Entwicklungen. Am (immer vorläufigen) Ende des Forschungsprozesses ist somit niemals klar, was in der Praxis aus den Forschungsergebnissen entstehen wird. Das wäre eine systemische Überschätzung von Forschung, doch vor allen Dingen ein Widerspruch zur Logik transformativer Prozesse. Kurzum: Meine Forschungsergebnisse entziehen sich der Einordnung in ein einfaches Wahr/Falsch-Schema.

Vor diesem Hintergrund stellen sich Fragen der wissenschaftlichen Güteprüfung, und zwar noch kritischer als es bei qualitativen Forschungen ohnehin der Fall ist: Wie kann „Nützlichkeit“ von Forschung ermessen werden, wenn die einfache (faktische) Wahrheit als Maßstab nicht zur Verfügung steht?

Der Überbegriff für das Charakterisieren von Aussagen heißt Modalität. Neben dem Konzept von Wirklichkeit existieren noch weitere Modalitäten: z. B. Notwendigkeit, Möglichkeit und Unmöglichkeit. Die modale Aussagenlogik ist eine Erweiterung der klassischen Aussagenlogik und ermöglicht, die Bedeutung von modalen Aussagen zu bewerten (Hughes & Cresswell, 2010; Seiffert, 1992). In der Modallogik spricht man statt von möglichen oder vorstellbaren Situationen auch von „möglichen Welten“, ein Konzept, das u. a. auf den US-amerikanischen Philosophen und Logiker Saul A. Kripke zurückgeht. Eine „mögliche Welt“ ist definiert als eine die Logik achtende Vorstellung, wie die Realität beschaffen sein könnte.

In der Modallogik gilt eine Notwendigkeitsaussage als wahr, wenn sie in allen „möglichen Welten“ erfüllt ist. Solche Aussagen stehen – wie eingangs ausgeführt – nicht im prioritären Fokus dieser Arbeit. Meine Forschung bildet vielmehr vorläufige mögliche Perspektiven auf die Realität ab. Solche Möglichkeitsaussagen gelten in der Modallogik als wahr, wenn sie in mindestens einer „möglichen Welt“ erfüllt ist.

Zur Beurteilung, ob meine Forschungsergebnisse im modallogischen Sinn „wahr“ sind, muss also geprüft werden, ob der Kontext, in dem diese Möglichkeitsaussagen entwickelt worden sind, eine „mögliche Welt“ darstellt, also eine „die Logik achtende Vorstellung, wie die Realität beschaffen sein könnte“. Diese Frage führt zum Gütekriterium der intersubjektiven Nachvollziehbarkeit: Transparenz im Forschungsprozess schafft die Voraussetzung dafür, dass Dritte die zugrundeliegende Logik der getroffenen Möglichkeitsaussagen verstehen – und damit auch prinzipiell kritisieren – können.

Forschungsergebnisse sind im modallogischen Sinne wahr, wenn die Möglichkeitsaussagen in mindestens einer „möglichen Welt“ – in der von dem:der Forschenden beschriebenen Welt – wahr sind, und die zugrundeliegende Logik für Dritte nachvollziehbar ist.

Die Bezeichnung einer Möglichkeitsaussage als wahr, beinhaltet jedoch keine Stellungnahme, ob die Aussage in einer anderen vorstellbaren Situation auch falsch sein könnte. Umgekehrt können manche falschen Möglichkeitsaussagen in einer anderen vorstellbaren Situation wahr sein. In der Modallogik ist die Gültigkeit von Möglichkeitsaussagen also abhängig von der jeweils gewählten Welt, m. a. W. von der jeweiligen Perspektive des:der Rezipient:in, die maßgeblich von fachlichen, epistemologischen und auch persönlichen Vorannahmen geprägt ist.

Die Feststellung der Kontextabhängigkeit von Möglichkeitsaussagen führt mich zum Modalbegriff der Kontingenz: Kontingenz bezeichnet eine Situation, die mehrere alternative Entwicklungen zulässt, von denen keine notwendig ist, die aber alle möglich sind. Damit führt der Kontingenzbegriff weit über eine einfache Wahr-Falsch-Unterscheidung hinaus. Auf diesen Aspekt werde ich später, im Zuge der Diskussion um die Nützlichkeit meiner Modellentwicklung eines zukunftsorientierten Marketing noch einmal zurückkommen (Abschnitt 13.7).

3 Schlussverfahren

Die GTM bietet nicht nur einen methodologischen Rahmen, um hypothetische Ideen regelgeleitet weiterzuentwickeln. Das beschriebene iterative Kodierverfahren bietet vor allem auch eine nachvollziehbare Systematik zum Intuieren überraschender Zusammenhänge und dem Entdecken tatsächlich neuer Erkenntnisse. Das gedankliche Hin und Her im Prozess, um die Entwicklung von Kategorien zu überprüfen und zu verfeinern, folgt einer abduktiven Logik.

Der US-amerikanische Logiker Charles Sanders Peirce (1839–1914), der in seinen Vorlesungen zum Pragmatismus im Jahr 1903 den über 400 Jahre alten Begriff Abduktion wieder in die Wissenschaft einführte, betonte den Unterschied zu den herkömmlichen Schlussverfahren der Deduktion und der Induktion, die im Grunde keine neuen Erkenntnisse hervorbringen können, sondern nur bereits Bekanntes bestätigen (Peirce, 1934/1974).

„Deduction proves that something must be; Induction shows that something actually is operative; Abduction merely suggests that something may be [Hervorhebungen im Original].“ (Peirce, 1934/1974:5.171)

In der Methodenliteratur ist das abduktive Schlussverfahren nicht einheitlich definiert (Wirth, 1995). Die Definition der Abduktion als logisches Schlussverfahren, das regelgeleitet und reproduzierbar neue Erkenntnis hervorbringt, ist nicht unumstritten. Jo Reichertz (2011:282 f.) verweist auf die Peircesche Unterscheidung zwischen der qualitativen Induktion und der Abduktion; zwei Denklogiken, zu denen es in der Literatur oft zu „unzulässigen Bedeutungsvermischung“ (ebd.:283) komme. Der deutsche Sozialwissenschaftler führt aus, dass beide Schlussverfahren den in der GTM angewandten Schlussverfahren entsprechen:

„Die geistige Operation, die feststellt, dass die in den Daten aufgefunden Kodes und Konzepte zu den bereits bekannten Kodes und Konzepten passen, das ist die eine Vorgehensweise: die qualitative Induktion … Auch diese Art des Denkens fügt den Daten etwas hinzu, von dem man aufgrund seines Vorwissens überzeugt ist, dass es dazu gehört. Die andere Vorgehensweise besteht in dem gedanklichen Sprung, der den Daten etwas völlig Neues hinzufügt, etwas, was in den Daten weder als Konzept noch als Theorie enthalten ist. Das ist eine Abduktion.“ (Reichertz, 2011:293)

Abduktion ist – anders als Deduktion und Induktion – kein Schlussverfahren, das reproduzierbar neues gültiges Wissen hervorbringt. Denn dass unterschiedliche Forscher:innen zu den gleichen kreativen Schlüssen kommen, ist nicht wahrscheinlich. Doch Abduktion ermöglicht, den Forschungsprozess ein Stück weit von der „Zufälligkeit des guten Einfalls“ (Habermas, 1968/1973:147) zu befreien. So beschreibt Peirce abduktives Schließen als einen Blitz der Einsicht (Peirce, 1934/1974:5.183), der sich in einem Prozess, der kaum von logischen Regeln behindert sei (ebd.:5.188), hervorlocken lasse, sobald der:die Forschende verschiedene Elemente der Fragestellung mit experimenteller Attitüde in völlig neuer Weise zusammenbringt. Das iterative Kodierverfahren der GTM bietet einen solchen methodologischen Rahmen mittels „Anwendung auf neue Fälle, das In-Beziehung-Setzen zu anderen Konzepten, durch das theoretische Integrieren passender und kontrastierender Beispiele, durch Ausdifferenzieren und Sättigen der Komponenten und ihrer Relationen“ (Breuer et al., 2018:252). Auch in Aufstellungen ist eine abduktionsförderliche Konstellation gegeben, weil die Raum-Zeit-Verdichtung vollkommen neue Einblicke in ein System und die Zusammenhänge zwischen den Elementen ermöglicht (Müller-Christ, 2016b:290).

Bei der Abduktion wird „aus einer bekannten Größe (= Resultat) auf zwei unbekannte (= Regel und Fall)“ geschlossen (Reichertz, 2015b:281). Der abduktive Schlussmodus kann nicht über angestrengtes Nachdenken erzwungen werden, sondern erfordert vielmehr theoretische Fantasie, Leichtigkeit und Kreativität. Insofern ist Abduktion eng verbunden mit Intuition, jenem „unmittelbare[n] Innewerden von Zusammenhängen, welche von den drei anderen Funktionen [Empfinden, Fühlen, Denken] im Moment der Orientierung nicht hergestellt werden können“ (C. G. Jung zitiert nach Rafalski, 2018:52). Der österreichisch-britische Philosoph Ludwig Josef Johann Wittgenstein (1889–1951) beschreibt den Prozess plötzlichen Erkennens als „Klick“:

„Die Erklärung ist richtig, welche Klick macht.“ (Wittgenstein, 1938/2000:33)

Die Wissenschaftstheorie tut sich noch schwer mit Erklärungen, wie die „Transformation von unbegründeten Assoziationen in begründbare Implikationen“ (Wirth, 1995:419) jeweils gelingen kann. Umberto Eco (1932 – 2016), der gleichermaßen als Künstler wie Wissenschaftler gearbeitet hat, bringt das sogenannte „Bauchgefühl“ und den abduktiven Schlussmodus wie folgt zusammen:

„Es gibt etwas Künstlerisches in der wissenschaftlichen Entdeckung und etwas Wissenschaftliches in dem, was die Naiven ‚geniale Intuition des Künstlers‘ nennen. Das beiden Gemeinsame ist die glücklich gelungene Abduktion.“ (Eco, 1988:210)

Der Unterschied zwischen Intuition und Abduktion ist in der Wissenschaftstheorie noch nicht klar herausgearbeitet (Reichertz, 2015b:277 f.). Es ist jedoch bereits gut erforscht, Situationen zu kreieren, in denen intuitive Prozesse wahrscheinlicher sind (vgl. zur Kreativitätsforschung z. B. der Psychologe Mihály Csíkszentmihályi (2018; 1990) und der Psychiater Rainer M. Holm-Hadulla (2000) sowie zu Kreativitätstechniken z. B. die Managementtrainerin Vera F. Birkenbihl (2007) und der Werbefachmann Alex F. Osborn (1963); vgl. des Weiteren hochergiebige Fundorte jenseits der Methodenliteratur, z. B. bei der Theologie-Professorin und Mystikerin Sabine Bobert (2012:298 ff.), dem Neurobiologen Gerald Hüther (2013) sowie der Psychologin Christine Mann mit dem Psychologen und Theologen Frido Mann (Mann & Mann, 2017:159 ff.).

Intuition ist in Situationen präsent, in dem höchste Konzentration und eine vollkommene Vertiefung in eine Aufgabe herrscht. Als Beispiel möchte ich ein persönliches Erleben herausgreifen, das in Form einer Zeichnung dokumentiert ist. Im Alter von 19 Jahren malte ich während des Unterrichts weltvergessen eine fantastische vogelähnliche Gestalt in mein Schulheft (Abbildung 3.4, oben). Die Zeichnung floss geradezu aus meiner Hand, wie von selbst, ohne dass ich an etwas Konkretes dachte. „Flow“ nennt der Glücksforscher Mihály Csíkszentmihályi (1990) einen solchen mentalen Zustand treffend. Einige Jahre später, während einer Exkursion durch Südkorea entdeckte ich ein frappierend ähnliches Bild an der Decke eines Tempels (Abbildung 3.4, unten). In diesem Moment, als ich in dem Deckenbild meine Schulheftkritzelei wiedererkannte, durchfuhr mich – weniger ein Blitz als – ein Gefühl von Demut: Ich war Zeugin einer intuitiv erfahrbaren größeren Wahrheit geworden. Bis dahin war mir nicht bewusst bekannt gewesen, dass ich einen Phoenix aus der chinesischen Mythologie gezeichnet hatte, der, wie meine Recherchen jetzt, im Kontext dieser Arbeit ergeben haben, sogar historisch zu datieren ist: auf die Ming-Dynastie (1368–1644) – wegen der Feder auf dem Kopf (China Internet Information Center, 2011).

Abbildung 3.4
figure 4

(Eigene Zeichnung, 1989;  eigenes Foto, 1993)

Zwei Zeichnungen eines Phoenix: Woher stammen intuitive Bilder?

Das Beispiel illustriert, wie sich uns Intuition als ein unvermittelter Gedanke – oder in diesem Fall als ein konkretes Bild – zeigt, ohne dass wir erklären können, wie die Idee zu uns gekommen ist. Die Wissenschaftsgeschichte ist voll mit Beispielen von Entdeckungen, die nicht auf logischen Ableitungen basieren, sondern aus kreativen Inspirationen und intuitiven Geistesblitzen hervorgegangen sind. Die Entdeckung des Benzolrings, dessen Struktur dem Chemiker Friedrich August Kekulé im Traum erschien, ist dabei sicher die prominententeste Erzählung einer abduktiven Lücke. Im Rahmen dieser Arbeit habe ich Intuition wiederholt als eine präsente, eigenständige Kraft erlebt – gleichsam als „Forschergeist“ – die mich begleitet, führt und bisweilen auch gedankliche Versäumnisse oder Planabweichungen bei der Durchführung von Aufstellungen aufgrund äußerer Rahmenbedingungen – wie ich im Nachhinein feststellte – ausgeglichen hat. Bisher kann nur spekuliert werden, ob diese Erkenntnisform nicht „durch eine Zusammenschau der in uns gespeicherten Informationen zustande kommt, sondern […] tatsächlich von außen als Quanteninformation“ (Mann & Mann, 2017:167).

Was auch immer als die Quelle von Abduktion und Intuition einmal zu bestimmen sein wird, der besondere erkenntnistheoretische Wert, sozusagen die „epistemologische USP“ dieser Erkenntnisformen liegt darin, dass sie zu substanziell neuen Perspektiven und Lösungen führen, von denen es (zumindest in der Welt des:der Suchenden) zuvor nie eine Vorstellung gegeben hat.