Gegenstand dieses Kapitels sind die eingesetzte Methodik und die gewählte Datenbasis. Genauer eingegangen wird an dieser Stelle auf die Entscheidungen für qualitatives Vorgehen, für das konkrete Design der explorativen Fallstudie und deren Elemente. Dabei werden sowohl Erhebungs-, Transkriptions- und Auswertungsmethoden dargestellt als auch auf Details zur verwendeten Stichprobe eingegangen. Besondere Sorgfalt wurde außerdem auf die Schilderung der konkreten Praxis der Untersuchung gelegt, sowohl bezogen auf organisatorische Fragen, wie etwa nach dem Feldzugang und der Kontaktaufnahme, als auch reflektiert unter den Gesichtspunkten von Gütekriterien.

4.1 Design: Explorative, qualitative Gruppen-Fallstudie

Der Grundgedanke qualitativer Forschung, von den Befragten einer Studie etwas über das Forschungsproblem oder die Forschungsfrage zu erfahren, führt zu dynamischen Forschungsprozessen, die sich auch während der Datenerhebung noch anpassen können, und stellt daher den Forscher insbesondere beim Studiendesign vor Herausforderungen (Creswell & Poth, 2018, S. 82; Mayring, 2010, S. 125; Stegkemper et al., 2018, S. 1). Ein gutes Forschungsdesign sollte daher insbesondere bei qualitativer Forschung die direkte Verbindung zwischen Forschungsfragen und gewählter Methode zur Beantwortung dieser spezifischen Frage erkennen lassen (Bryman, 2007, S. 5–20). Methodologische Vorlieben des Forschers wie die Bevorzugung des quantitativen oder qualitativen Forschungsansatzes sollten hingegen keinen Einfluss haben und respektive nicht dazu führen, die Forschungsfragen so auszuformulieren, dass diese einer bestimmten Forschungsmethode zugänglich sind (Gorard et al., 2004, S. 380–381; Strübing et al., 2018, S. 84). Um die genaue Ausarbeitung dieses Zusammenhangs anhand ausgewählter Dimensionen handelt der gesamte Abschnitt zum Forschungsdesign.

Auch wenn es für Untersuchungsdesigns grundsätzlich an einem einheitlichen Klassifikationssystem fehlt, haben sich in der Literatur eine Reihe von Beschreibungsdimensionen etabliert (Montero & Leon, 2007, S. 850), die daher im Bezug zum hier gewählten Forschungsdesign diskutiert werden. So behandelt der nachfolgende Abschnitt neben dem Bezug der Forschungsfragen zum wissenschaftstheoretischen Ansatz unter anderem Erkenntnisziel, Forschungsgegenstand, Datengrundlage, Erkenntnisinteresse, Untersuchungsort, Untersuchungszeitpunkt und Untersuchungsobjekt als Dimensionen zur Begründung des gewählten Forschungsdesigns.

4.1.1 Explorative Fallstudie

Für die geplante, offene Exploration von unbekannten Veränderungen und Faktoren wird ein qualitatives, induktives Vorgehen in Form einer Fallstudie gewählt. Es bietet durch die Gewinnung von reichhaltigem Datenmaterial tiefere Einblicke für das Verständnis komplexer Phänomene und Zusammenhänge, besonders bei wenig erforschten Themen (Doz, 2011, S. 583; Eisenhardt, 1989, S. 533; Graebner et al., 2012, S. 282). Da die Betrachtung von Prozessen der Geschäftsmodellinnovation während der Pandemie auf die Ausarbeitung der Grenzen zwischen Forschungsobjekt und seinem Kontext abzielt, bietet sich ein qualitatives Forschungsdesign für eine Kontextualisierung des Forschungsproblem an (Foss & Saebi, 2017, S. 10; Yin, 2014, S. 39–40).

Aufgrund des noch unbekannten Forschungskontexts einer weltweiten Pandemie wurde eine explorative Fallstudie dem Ausgehen von theoretischen Vorannahmen und vorab festgelegten Beschreibungskategorien vorgezogen. Daher sind quantitativ-statistische Methoden aufgrund ihrer Standardisierung zur Beantwortung der Forschungsfragen unpassend (Wilson & Hollinshead, 2015, S. 44). Diese eignen sich in der Regel besser für Bestandsaufnahmen bekannter Themenbereiche, bei denen im Vorfeld mit umfangreichem Vorwissen deduktiv Richtlinien operationalisiert und standardisierte Fragen realisiert werden können. In der vorliegenden Studie geht es dagegen darum, Vorwissen zu neuen Themen, Faktoren, Aspekten und Beziehungen zu generieren, das in Folge für weitere standardisierte Erhebungen verwertbar ist (Gläser & Laudel, 2010, S. 26, 37, 43). Durch den gewählten qualitativen Forschungsansatz werden überwiegend verbale Daten generiert, die interpretativ ausgewertet werden. Diese erfordern daher auch besondere Gütekriterien wie beispielsweise Transparenz oder Authentizität (LeCompte & Goetz, 1982, S. 31; Strübing et al., 2018; Tracy, 2010, S. 837), vgl. dazu ausführlich den Abschnitt zu Gütekriterien weiter unten.

Dadurch, dass offene Forschungsfragen sehr detailliert mit teilstrukturierten Datenerhebungsmethoden untersucht werden, ergibt sich im vorliegenden Rahmen einer durch eine Einzelperson durchgeführten Forschung automatisch die Beschränkung auf wenige Untersuchungseinheiten. Die daraus resultierenden Einbußen hinsichtlich der Repräsentativität werden ausführlich zu einem späteren Zeitpunkt im Abschnitt Limitationen ausgeführt. Bei dem gewählten qualitativen Ansatz handelt es sich zudem um einen in der Tourismusforschung, aufgrund der aufgeführten Vorzüge, anerkannten Ansatz (Dann et al., 1988, S. 11; Wilson & Hollinshead, 2015, S. 31).

Bei der vorliegenden Arbeit handelt es sich nicht um Auftragsforschung, sie ist somit unabhängig von Auftraggebern oder Drittmitteln entstanden. Das Erkenntnisziel liegt vornehmlich in ihrem Beitrag zur Forschung in den Bereichen Entrepreneurship (Geschäftsmodellinnovation) und Tourismus (Krisenmanagement von Destinationen). Es werden mögliche praktische Konsequenzen und Anwendungsmöglichkeiten diskutiert. Diese bilden allerdings nicht den Schwerpunkt der Arbeit.

Wie bei Qualifikationsarbeiten häufig anzutreffen, fällt hier die Wahl auf eine empirische Originalstudie (Döring & Bortz, 2016, S. 183). Ziel war dabei, den empirischen Forschungsprozess inklusive Planung und Durchführung einer eigenen Datenerhebung vollständig zu durchlaufen und darzustellen. Das inhaltliche Forschungsproblem soll auf der Basis systematischer eigener Datenerhebung und mit einer Primäranalyse gelöst werden. Vor allem durch das neue Forschungsfeld bedingt wurde die kreativere und offene Variante der Originalstudie einer Replikationsstudie vorgezogen. Obwohl aufgrund der noch geringen Forschungserfahrung des Forschers eine Replikationsstudie sinnvoll ist, spricht in diesem Fall für die Originalstudie, dass die Art der Stichprobe und auch die Datenerhebungsmethode selbst festgelegt werden kann. So kann die Beschaffenheit des Datensatzes genau auf das Forschungsproblem zugeschnitten werden (Glass, 1976, S. 4). Auf den Nachteil, dass bei dieser Art von Forschungsdesign aus forschungsökonomischen Gründen nur kleine Datensätze erzeugt werden können, wurde weiter oben bereits hingewiesen.

Vorliegend soll der noch wenig untersuchte Gegenstand der Geschäftsmodellinnovation während der Corona-Pandemie im Tourismus erkundet werden und gegebenenfalls „Theorien mittlerer Reichweite“ generiert werden (Merton, 1995). Die genaue Erkundung und Beschreibung eines Sachverhalts mit dem Ziel, wissenschaftliche Forschungsfragen, Hypothesen und Theorien zu entwickeln, wird in der Regel – wie auch hier – mit einem explorativen Studiendesign durchgeführt (Döring & Bortz, 2016, S. 192; Siggelkow, 2007, S. 21). Auf der Basis von offenen Forschungsfragen sollen verschiedene Aspekte eines Sachverhaltes beleuchtet und anschließend differenziert beschrieben werden. Gerade die gewünschte Offenheit für unerwartete Befunde bedingt einen qualitativen Forschungsansatz, auch wenn im Grundsatz quantitative explorative Studien mit speziellen Techniken der explorativen statistischen Datenanalyse möglich wären. Da keine vorher aus der Theorie abgeleitete Hypothese auf ihre Gültigkeit hin überprüft, sondern ein unerforschtes Feld exploriert werden soll, kommt indes keine explanative Studie in Betracht.

Der Untersuchungsort war bei der Durchführung der Interviews überwiegend die Heidelberger Altstadt, mithin die interessierende Flusskreuzfahrtdestination. Dennoch handelt es sich nicht um eine Feldstudie im engeren Sinn, wie sie im qualitativen Forschungsansatz durchaus typisch sind. Zwar stimmt der geografische Rahmen, allerdings wurden die Akteure während des ersten Lockdowns in der Corona-Pandemie im April/Mai 2020 befragt. In dieser Zeit fand keine touristische Tätigkeit in der Destination statt. Der Untersuchungsort war daher mehr durch die Pandemie-Auflagen (Treffen nur im Freien und mit Abstand) bestimmt, als durch das Ziel, das Forschungsobjekt im interessierenden Umfeld zu befragen. Aufgrund der gewählten Forschungsfragen und der zum Erhebungszeitpunkt geltenden Kontaktbeschränkungen und Ausgangssperren entfielen zudem weitere qualitative Forschungsmethoden wie beispielsweise eine Gruppendiskussion oder die teilnehmende Beobachtung. Die empirische Untersuchung im Rahmen der Qualifikationsarbeit beschränkt sich aus forschungsökonomischen Gründen auf einen einzigen Untersuchungszeitpunkt im eben beschriebenen Zeitrahmen.

4.1.2 Gruppenstudie

Zur Erforschung einer Flusskreuzfahrtdestination als organisationale Einheit im Tourismus bieten sich besonders Fallstudien an (Framke, 2002, S. 93; Saraniemi & Kylänen, 2011, S. 133–135), um die zu untersuchenden touristischen Akteure in ihrer Gesamtheit und unter Einbeziehung ihres Kontextes umfassend zu betrachten und zu verstehen (Eisenhardt & Graebner, 2007, S. 25; Hussy et al., 2013, S. 199; Leiper, 1979, S. 405; Siggelkow, 2007, S. 21). Die Methode der Fallstudie ist in der Tourismusforschung und insbesondere im Kontext von Destinationsforschung allgemein anerkannt (Dann et al., 1988, S. 1–28; Ritchie et al., 2005, S. 37–49). Auch bei der Geschäftsmodellinnovation als aufstrebendes Forschungsfeld mit noch wenig existierenden Theorien werden Fallstudien als sinnvoller Forschungsansatz gesehen (Yang et al., 2017, S. 1797). Bei Fallstudien gibt es kein generelles Regelwerk, auf das zurückgegriffen werden könnte (Pratt, 2009, S. 856). Unterschieden wird zwischen Studiendesigns mit einem oder mehreren Fällen (Yin, 2014, S. 56). Da sich das Forschungsinteresse auf Geschäftsmodellinnovation während der Pandemie im Allgemeinen richtet, erweist sich die übergreifende Analyse mehrerer Fälle als sinnvoller Ansatz zur Beantwortung der Forschungsfragen (Langley & Abdallah, 2011, S. 108), da von den Eigenheiten eines Einzelfalles abstrahiert und zumindest bedingt generalisierbare Erkenntnisse über das Untersuchungsfeld gewonnen werden sollen (Yin, 2014, S. 45–49). Somit handelt es sich hier um eine Gruppenstudie, bei der eine Stichprobe von Untersuchungseinheiten aus dem interessierenden Forschungsfeld untersucht wird (Döring & Bortz, 2016, S. 315).

4.1.3 Induktiver Ansatz

Auch für das nachfolgend beschriebene induktive Vorgehen haben sich Fallstudien als geeignet erwiesen, sofern es durch die Natur der Forschungsfrage bedingt und begründet ist (Dyer & Wilkins, 1991, S. 615; Eisenhardt, 1989, S. 536; Eisenhardt & Graebner, 2007, S. 26). Induktives Vorgehen gilt als das klassische Vorgehen in der qualitativen Forschung (Neuman, 2003, S. 177). Ausgehend von vielen gleichartigen Beobachtungen, die als Einzelaussagen vorliegen (sog. Protokoll- oder auch Basissätze), wird auf eine allgemeine Aussage geschlossen, die zwei Sachverhalte in gesetzesartiger Form verknüpft. Diese Form des logischen Schließens ist keineswegs unumstritten und seit der Darstellung von David Hume (1711 – 1776) untrennbar mit dem sogenannten Induktionsproblem verbunden (Baur & Blasius, 2019, S. 51; Brinkmann, 1997, S. 87). Das qualitative, induktive Vorgehen lässt sich zudem nicht von der Weltsicht des Forschenden (vgl. Abschnitt 6.4) trennen (Cunliffe, 2003, S. 995). Die Überzeugung, dass ein erkannter Gegenstand nicht anders als vom Betrachter selbst durch den Vorgang des Erkennens konstruiert wird, führt denknotwendig zur Ablehnung der empirischen Bestätigung einer Hypothese und hin zur induktiven Exploration, da diese in dieser Vorstellung nicht die Erkenntnis einer objektiven Welt bedeuten kann.

In der vorliegenden Arbeit soll also ausgehend von offenen Forschungsfragen und nichtstandardisierten Erhebungsinstrumenten reichhaltiges Textmaterial (nichtnumerisch) erhoben und dieses im Rahmen der qualitativen Datenanalyse und weiterer Datenerhebung schrittweise zu theoretischen Konzepten, primär induktiv (sog. „bottom-up“) verdichtet werden (Baur & Blasius, 2019, S. 52; Döring & Bortz, 2016, S. 222). Auf der Basis der empirischen Daten sollen durch Abstraktion übergeordnete theoretische Begriffe gebildet werden. Mithin stehen die theoretischen Konzepte vom Grundsatz her am Ende des Forschungsprozesses. Zusammenfassend wird somit ein überwiegend induktiver, theoriebildender Fallstudienansatz verwendet (Eisenhardt, 1989, S. 533; Gioia et al., 2013, S. 17), ohne im Vorfeld Thesen zu entwickeln, die auf vorangegangener Forschung basieren. Dabei wird jedoch explizit kein Grounded-Theory-Ansatz im engeren Sinne (Gurd, 2008, S. 122) verfolgt, bei dem Vorwissen neue Erkenntnisse einschränken würde (Glaser & Strauss, 2017, S. 160–184), sondern ein „vorinformierter“ Ansatz (Corbin & Strauss, 2015, S. 17–85), der weniger „ignorant“ gegenüber der bisherigen Forschung ist. Im diametralen Gegensatz zur quantitativen Operationalisierung fordert das qualitative Wissenschaftsverständnis explizit theoretische Offenheit zu bewahren, so dass sich die Bedeutung von theoretischen Konzepten im Zuge der Datenerhebung und -analyse noch verändern und gegebenenfalls dem Untersuchungsgegenstand annähern kann (Döring & Bortz, 2016, S. 222).

4.2 Methode der Datenerhebung: Leitfadengestütztes, qualitatives Experteninterview

Es wurde eine Datenerhebung mittels leitfadengestützten (teilstrukturierten) Experteninterviews gewählt, die für eine Exploration gut geeignet ist (Kuckartz, 2018, S. 123–142). Offen formulierte Fragen oder Erzählaufforderungen lassen dem Befragten dabei viel Raum, sich zu artikulieren und somit neue Facetten einzubringen. Das leitfadengestützte Experteninterview ist zudem für den explorativen Zweck offen genug, ohne die Vergleichbarkeit der Aussagen zu vernachlässigen. Besonders eignet es sich für den angestrebten Zweck einer ersten Orientierung im Feld und Hypothesengenerierung (Bogner et al., 2014, S. 23).

4.2.1 Das qualitative Interview

Das Erhebungsinstrument des Interviews ist nicht nur die am häufigsten gewählte Erhebungsmethode in den empirischen Sozialwissenschaften (Aufenanger, 2011, S. 97; Gubrium, 2012, S. 2; Meuser & Nagel, 2009, S. 465), sondern auch die wichtigste Datenerhebungstechnik innerhalb des qualitativen Forschungsparadigmas (Döring & Bortz, 2016, S. 356; Misoch, 2019, S. 65). Die wissenschaftliche, mündliche Befragung kann dabei als ein zielgerichtetes, systematisches und regel-/theoriegeleitetes Verfahren der Datenerhebung definiert werden, bei dem verbale Äußerungen einer Befragungsperson zu ausgewählten Aspekten ihres Wissens, Erlebens und Verhaltens generiert werden (Döring & Bortz, 2016, S. 356; Kaiser, 2014, S. 6). Die Bezeichnung Interview suggeriert an dieser Stelle fälschlicherweise, dass es sich um eine einzige, klar definierte Methode handelt (Qu & Dumay, 2011, S. 238). Ganz im Gegenteil sind damit in der Literatur eine Reihe von Verfahren und Varianten gemeint, die sich nach der Art der zu erfragenden Information, dem Befragten und dem Grad der Standardisierung unterscheiden lassen (Dresing & Pehl, 2018, S. 5–15; Misoch, 2019, S. 12–14).

Entscheidend zur Abgrenzung von einer einfachen Unterhaltungssituation sind unter anderem das systematische Vorgehen, die Verfolgung eines bestimmten Erkenntnisinteresses und die per Konvention asymmetrisch angelegten, festen Rollen von Interviewpartner und Forscher/Interviewender (Helfferich, 2019, S. 674). Letzteres deshalb, da durch den besagten Zweck der Informationsermittlung der forschende Interviewer, idealerweise ohne dabei selbst viel zum Gespräch beizutragen, die Fragen stellt und die befragten Experten den Großteil des Gesprächs ausmachen, ohne in der Regel selbst viele Fragen zu stellen (Hussy et al., 2013, S. 224). Zur Problematik, dass der Forschende selbst das eigentliche Erhebungsinstrument in der Interviewsituation darstellt (Crouch & McKenzie, 2006, S. 484; Misoch, 2019, S. 213), sei auf die Ausführungen zu Gütekriterien und Limitationen verwiesen.

Das systematische Vorgehen dient vornehmlich der Anforderung der intersubjektiven Nachvollziehbarkeit des Verfahrens. Da anzunehmen ist, dass ein zuvor unbeteiligter Forscher selbst mit dem identischen Erhebungsinstrument und der Befragung desselben Gesprächspartners keine vollständig identischen Informationen erhalten wird (Alvesson, 2003, S. 14), erweist sich diese Nachprüfbarkeit besonders bei qualitativen Interviews als problematisch. Hier steht das qualitative Grundprinzip der Offenheit einem hohen Grad an Standardisierung und mithin Nachvollziehbarkeit grundsätzlich entgegen (Bogner et al., 2014, S. 2). Dem wurde durch eine Dokumentation der Analyse und Offenlegung der Interpretation entgegengewirkt. Dadurch sind zumindest einzelne Schritte der Vorgehensweise durch Dritte erkenn- und bewertbar. Vorliegend betrifft dies vor allem die Benennung der Kriterien der Expertenauswahl, die Offenlegung des Leitfadens, die Beschreibung der Interviewsituation und die Darstellung der Auswertungsmethode.

4.2.2 Das leitfadengestützte Experteninterview

Bei der gewählten Interviewform handelt es sich um die Ausprägung eines teilstrukturierten oder auch halbstandardisierten, leitfadengestützten Einzelinterviews (Bogner et al., 2014, S. 27). Kennzeichnend dafür ist, dass der Interviewende eine Liste von Fragen zu ganz bestimmten Themen verwendet (Leitfaden), dem Befragten dennoch ein großer Spielraum zur Beantwortung der Fragen gewährt wird. So müssen die Fragen nicht genau dem Ablauf des Leitfadens folgen (Bryman & Bell, 2011, S. 467). Auch dürfen die Fragen in Anlehnung an die Begrifflichkeit des Teilnehmenden formuliert werden (Bogner et al., 2014, S. 27). Zudem können nicht im Leitfaden vorhandene Fragen aus dem Gespräch heraus gestellt werden. Dies betrifft insbesondere Situationen, in denen der Interviewer Aussagen des Befragten aufgreift und erkundet (Mayer, 2013, S. 37) oder bei Ausschweifungen zum Katalog zurückkehrt (Flick, 2017, S. 194). Der Leitfaden dient somit als Orientierungshilfe und Grundgerüst, um wesentliche Aspekte nicht zu übersehen. Gleichzeitig ermöglicht er die Vergleichbarkeit der Sichtweisen verschiedener Personen und Gruppen zum im Erkenntnisinteresse liegenden Thema (Hussy et al., 2013, S. 227).

Als besondere Form des Leitfadeninterviews charakterisiert das Experteninterview vorwiegend seinen Bezug zum spezifischen Erkenntnisinteresse (Kaiser, 2014, S. 3). Der Befragte ist im Gegensatz zum beispielsweise biografischen Interview weniger als Person, sondern in seiner Rolle als Experte für ein bestimmtes Handlungsfeld und als Repräsentant einer Gruppe interessant. Auch kommt dem Leitfaden hier eine grundsätzlich stärkere Steuerungsfunktion zu, da es wichtig ist, den Befragten auf das interessierende Expertenwissen zu beschränken und gleichzeitig unergiebige Themen auszuschließen (Flick, 2017, S. 209; Meuser & Nagel, 2009, S. 466).

Die Wahl des Experteninterviews als Erhebungsinstrument wird besonders durch das Erkenntnisinteresse bzw. den spezifischen Zweck der Studie bedingt, da sich eine ganz spezifischen Art von Information daraus gewinnen lässt (Kaiser, 2014, S. 5). Da sich die Befragten irren können, sich möglicherweise nicht auskennen oder auch nicht gut informiert sind, liegt die Stärke solcher Interviews nicht unbedingt in der Abfrage rein technischer Daten und Fakten. Vielmehr geht es um Prozesswissen als eine Form des Erfahrungswissens (Kaiser, 2014, S. 44). Von Interesse ist dabei die Einsicht der Befragten in Handlungsabläufe, Interaktionen, organisationale Konstellationen, Ereignisse, in die sie selbst involviert sind oder waren. Neben Betriebswissen lässt sich so auch Kontextwissen zu den Rahmenbedingungen und Deutungswissen zu den Wahrnehmungen und Einstellungen generieren (Meuser & Nagel, 2009, S. 472). Gerade für die Forschungsfrage nach hindernden oder begünstigenden Faktoren für eine Geschäftsmodellinnovation in der Krise sind die aus den Interviews von Betroffenen generierbaren Daten zu Kontext und Betriebswissen besonders geeignet. Ein möglicher Nachteil, dass dieses Wissen stärker Standort- und personengebundene Erfahrungen sind (Bogner et al., 2014, S. 18), wirkt sich im vorliegenden Fall sogar als Vorteil aus, da sich das Erkenntnisinteresse auf eine touristische Destination und die dort agierenden Akteure bezieht. Das gewählte Fallstudiendesign gilt zudem als typisches Anwendungsgebiet von qualitativer Experteninterviews (Kaiser, 2014, S. 4).

Wichtig für den Einsatz des Experteninterviews war hier sowohl das Ineinandergreifen der Methoden in Bezug auf das Erkenntnisinteresse (Forschungsfragen) als auch die Wechselwirkung zwischen Erhebungs-, Auswertungsinstrument und Studiendesign. So können qualitative Experteninterviews aufgrund ihrer Offenheit und geringeren Standardisierung nicht sinnvoll statistisch ausgewertet werden, weshalb interpretative Verfahren der Datenanalyse angezeigt sind (Gläser & Laudel, 2010, S. 43; Misoch, 2019, S. 65), vgl. hierzu das gewählte Auswertungsinstrument (vgl. Abschnitt 4.6).

Darüber hinaus spielen auch praktische Erwägungen bei der Auswahl des Experteninterviews als Erhebungsinstrument eine Rolle. Aufgrund der Bildungsheterogenität der zu befragenden Tourismuspraktiker ist die Niederschwelligkeit und Alltagsnähe dieser Methode von Vorteil. Durch den direkten Kontakt mit den Befragungsteilnehmern im mündlichen Interview können zudem Hintergrundinformationen über den Experten sowie die Interviewsituation selbst unmittelbar erfasst und die Datenqualität (z. B. im Vergleich zum schriftlichen Fragebogen) besser eingeschätzt werden. Für das spezifische Erkenntnisinteresse an Geschäftsmodellen bietet sich die Interviewsituation aus drei weiteren praktischen Erwägungen an. Erstens ist das Thema Geschäftsmodell zu abstrakt und komplex für schriftliche Fragebögen. Zweitens ist die persönliche, vertrauensvolle Atmosphäre für die Preisgabe von strategischen Betriebsinterna wie Geschäftsmodellen unabdingbar. Drittens soll gerade der qualitative Ansatz ein Eingehen auf die Antworten der Befragten ermöglichen (Döring & Bortz, 2016, S. 357).

Innerhalb des qualitativen Forschungsparadigma sind das Experteninterview und vor allem die Eigenschaft des Experten nicht unumstritten (Bogner et al., 2014, S. 3; Helfferich, 2019, S. 687; Kromrey, 2006, S. 358). Von der Konzeptualisierung des Experten als Informationslieferant (Kromrey, 2006, S. 258) über dedizierte qualitativ orientierte Ansätze bis hin zu weit gefassten Expertenbegriffen (Gläser & Laudel, 2010, S. 111) findet sich in der Literatur ein breites Spektrum an Definitionen (Bogner et al., 2014, S. 11). Kritisch gesehen wird unter anderem die Nivellierung zwischen Laien und Experten sowie die Statuszuweisung des Experten durch den Forscher, der eine bestimmte Person als Experte auswählt und befragt (Meuser & Nagel, 2009, S. 466; Walter, 1994, S. 271). Es wird vertreten, dass das Expertentum keine persönliche Eigenschaft, sondern eine Zuschreibung darstellt, die in der Praxis stattfindet (Mayer, 2013, S. 37). Der Experte wird dabei sowohl über das spezifische Forschungsinteresse als auch über seine soziale Repräsentativität definiert, womit sich Expertentum als ein Konstrukt des Forschers und der Gesellschaft darstellt (Pfadenhauer, 2009, S. 99–101). Bogner gibt folgende zusammenfassende Expertendefinition: „Experten lassen sich als Personen verstehen, die sich – ausgehend von einem spezifischen Praxis- oder Erfahrungswissen, das sich auf einen klar begrenzbaren Problemkreis bezieht – die Möglichkeit geschaffen haben, mit ihren Deutungen das konkrete Handlungsfeld sinnhaft und handlungsleitend für Andere zu strukturieren, und insbesondere in der Lage sind, strukturell bedeutsame soziale Beziehungen zu konstituieren“ (Bogner et al., 2014, S. 13).

Somit muss das Wissen nicht nur beim Experten verfügbar, sondern auch in besonderem Maße praxiswirksam sein. Als „Experte gilt jemand, der auf einem begrenzten Gebiet über ein klares und abrufbares Wissen verfügt“ (Meuser & Nagel, 2009, S. 469). Gerade diese Praxisrelevanz macht das Expertenwissen für das vorliegende empirische Forschungsprojekt und seine Forschungsfragen interessant. Als Experte für Geschäftsmodelle und Innovation müssen daher diejenigen in der Befragung angesprochen werden, die in irgendeiner Weise Verantwortung für die Entwicklung, Umsetzung und Kontrolle von Geschäftsmodellen tragen oder einen privilegierten Zugang zu Informationen über diese Entscheidungsprozesse im Unternehmen haben (Mayer, 2013, S. 37). Dabei ist zu beachten, dass in größeren Organisationen die Experten nicht unbedingt auf der ersten Ebene zu finden sind, sondern auf der zweiten oder dritten Ebene, auf der die Entscheidungen vorbereitet werden (Meuser & Nagel, 2009, S. 443), weshalb bei den Destination-Management-Organisationen zusätzlich zum Geschäftsführer auch die Prokuristen befragt wurden (vgl. Abschnitt 4.3). Forschungspraktisch hat diese Expertendefinition den Vorteil, dass relevante Interviewpartner gut identifizierbar sind.

4.2.3 Primärstatistische Datenerhebung

Den wesentlichen Teil der Untersuchung stellt das bisher vorgestellte halbstrukturierte Experteninterview dar, da damit sowohl retrospektive als auch Echtzeitberichte von Experten (Gioia et al., 2013, S. 19), welche die Auswirkungen der COVID-19-Pandemie erlebt haben, generiert wurden. Daneben umfasst die Studie noch weitere Forschungsaktivitäten. Dazu gehört eine primärstatistische Datenerhebung, die neben den erhobenen soziodemografischen Daten der Interviewpartner aus der Sichtung vorhandener Informationen und Sekundärdaten zur Stadt Heidelberg als Flusskreuzfahrtdestination besteht. Sie beinhaltet statistische Informationen von Branchenverbänden, Medienberichte, Pressemitteilungen sowie Informationen über die Hauptattraktionen der Destination (Altstadt und Schloss), die von der jeweiligen Destinations-Management-Organisationen (DMO) für Forschungszwecke zur Verfügung gestellt wurden. Zusätzlich wurde ein Datensatz erstellt, der sich aus den Ankünften von Kreuzfahrtschiffen zwischen 2008 und 2019 einer Incoming-Agentur in Heidelberg, der Anzahl der geführten Touren sowie Reservierungen des Busparkplatzes am Heidelberger Schloss zusammensetzt. Dieser bietet die Möglichkeit, Aussagen aus den Interviews gezielt zu überprüfen und zu triangulieren. So wurden beispielsweise wertende Aussagen zu den negativen Auswirkungen vergangener Krisen anhand des Rückgangs der Buchungen im Datensatz für bestimmte Zeiträume nachvollzogen.

4.3 Stichprobe: Purposeful Sampling

4.3.1 Absichtsvolles Stichprobenverfahren

Ziel ist es, Personen auszuwählen, die sich als inhaltlich adäquat im Hinblick auf die Forschungsfrage erweisen und reichhaltige Informationen dazu versprechen (Misoch, 2019, S. 200). Ganz im Gegensatz zum quantitativen Ansatz geht es also nicht darum, ein möglichst genaues Abbild der zu untersuchenden Grundgesamtheit im Hinblick auf bestimmte Phänomene darzustellen und statistisch kontrollierbare Rückschlüsse auf diese Grundgesamtheit zu ermöglichen. Letzteres würde sich bei qualitativen Methoden ohnehin schlecht umsetzen lassen, da die Grundgesamtheit, für die der untersuchte Fall bzw. die untersuchte Fallgruppe steht, häufig erst im Anschluss an die Untersuchung richtig beschrieben werden kann (Merkens, 2019, S. 291). Dennoch wäre es an dieser Stelle zu schlicht, die Stichprobe mit dem Argument zu begründen, dass „das Besondere des Falls bereits über die Wahl des Gegenstandes gegeben ist“ (Merkens, 2019, S. 287). Hier bot sich absichtsvolles Stichprobenverfahren (purposeful sampling) aufgrund des branchenspezifischem Vorwissens beim Forschenden als ehemaliger Gatekeeper im Forschungsfeld (Misoch, 2019, S. 201), des Fokus der Arbeit und der Experteninterviews als Erhebungsmethode an (Creswell & Poth, 2018, S. 221–226; Glaser & Strauss, 2017, S. 12; [1. Auflage 1967]). Dieses bietet sich insbesondere auch bei kleineren Stichproben an, bei welchen eine blinde Zufallsauswahl zu verzerrten und wenig aussagekräftigen Stichproben führen könnte.

Bei großen Stichproben wäre dagegen eine Auswahl nach dem statistischen Zufallsprinzip der beste Garant für globale Repräsentativität des Samples. Gerade Repräsentativität wird bei qualitativer Forschung häufig kritisiert, wobei es diese streng genommen auch innerhalb des quantitativen Paradigmas als „statistische Repräsentativität“ nur bedingt und nur im Hinblick auf die Verteilung bestimmter Merkmale geben kann (Diekmann, 2020, S. 368). Eine Stichprobe „repräsentiert“ per se niemals sämtliche Merkmalsausprägungen einer Grundgesamtheit. Der Begriff der Repräsentativität sollte deshalb differenziert betrachtet werden, weil für qualitative Forschung, wie bereits zu Anfang festgestellt, nicht die statistische, sondern vielmehr inhaltliche Repräsentativität im Zentrum steht. Das lange Zeit für qualitative Forschung allgemein übliche Theoretical Sampling (Glaser & Strauss, 2017, S. 244), vor allem im Kontext der Grounded Theory, wurde hier bewusst nicht verfolgt. Damit wurde einerseits eine Fallauswahl mit geringem Aussagewert für die zu untersuchende Forschungsfrage und andererseits daraus entstehende Verzerrungen und Folgefehler im Fortgang des Erhebungs- und Auswertungsprozesses vermieden.

4.3.2 Auswahlkriterien

Es galt eine Stichprobe zu finden, welche die Beobachtung des interessierenden Phänomens, der möglichen Auswirkungen der COVID-19-Pandemie auf Geschäftsmodelle und Krisenmanagement touristischer Akteure, möglichst verzerrungsfrei zulässt (Siggelkow, 2007, S. 20). Dies war für Flusskreuzfahrtdestinationen, aufgrund eines pandemiebedingten Durchführungsverbots von touristischen Schiffsreisen, grundsätzlich zu erwarten. Beim Flusskreuzfahrtmarkt handelte es sich sowohl an der Destination Heidelberg (Sommer, 2018, S. 1), als auch im bundesweiten Tourismus, bis Anfang 2020 um einen gewichtigen Quellenmarkt (Buchmüller, 2021, S. 1; Stanek, 2019, S. 1). So stellten Flusskreuzfahrttouristen bis dahin einen derart großen Besucheranteil an der Destination dar, dass die Lokalpresse kommentierte „die schiere Masse des Kreuzfahrtgäste“ seien „das Problem“ und schilderten „warum hier Kreuzfahrtgäste nicht erwünscht sind“ (Caliskan, 2019, S. 1–3; Hörnle, 2018a, S. 1–2, 2018b, S. 1–5; Oßberger, 2018, S. 1–5; Schlautmann, 2016). Das besondere Gewicht des wegfallenden Quellenmarktes ließ daher bei den touristischen Akteuren der Flusskreuzfahrtdestination erkennbare Veränderungen der Geschäftsmodelle und ihres Krisenmanagements erwarten. Da pandemiebedingt keine sofortige Kompensation durch Binnennachfrage oder Geschäftsreisende absehbar war, waren Verzerrungen dieses Effekts dagegen nicht zu befürchten.

Die Herausforderung einer Fallstudie besteht in der Auswahl, welches begrenzte System untersucht werden soll, und darin, dass entweder der Fall selbst oder ein Thema, zu dessen Veranschaulichung ein Fall oder mehrere Fälle ausgewählt werden, eine Untersuchung wert ist (Creswell & Poth, 2018, S. 102–103). Inhaltlich erlaubt diese erste Eingrenzung auf den Quellenmarkt Flusskreuzfahrt in Kombination mit der Beschränkung auf eine Destination als sowohl organisationale als auch geografische Einheit im Tourismus (Framke, 2002, S. 95; Saraniemi & Kylänen, 2011, S. 135) einen geschlossenen und klar identifizierbaren Rahmen von Akteuren und damit Experten. Somit wird einerseits durch mehrere Fälle eine höhere Güte erreicht, andererseits ist diese Stichprobe ausreichend heterogen und bleibt dennoch einschränkbar.

Tourismus und der damit verbundene Konsum können für eine Analyse der Auswirkungen der COVID-19-Pandemie nicht anders als geografisch, im vorliegenden Fall z. B. einer Destination, verortet werden (Vanhove, 2018, S. 1). Darüber hinaus lassen sich Forschungsergebnisse aus einer Destination als eine der typischen Beobachtungseinheiten in Tourismusstudien (Fabry & Zeghni, 2019, S. 96–98; Framke, 2002, S. 92–94) auch leichter mit anderen Studien vergleichen bzw. auf diese übertragen. Die Auswahl der Flusskreuzfahrtdestination Heidelberg erfolgte zum einen aufgrund der besonderen touristischen Nachfrage dieser Destination im deutschlandweiten Vergleich (vgl. Abschnitt 1.1.3) und zum anderen aus forschungspraktischer Sicht aufgrund des erleichterten Zugangs des Forschers zu den Akteuren selbst. Ebenso spielte aus Gründen der Triangulierbarkeit der Expertenaussagen ein bereits vorhandener Bestand an Daten- und Pressematerial eine wesentliche Rolle.

Die Auswahl der Akteursgruppen lässt sich auch inhaltlich abstecken. Flusskreuzfahrtgäste sind sowohl aus dem In- als auch Ausland stammende Tagestouristen. Da sie nicht über Nacht bleiben, entfallen Hotels aus zu untersuchenden Akteursgruppen in der Destination. Als Hotelschiff übernehmen die Flusskreuzfahrtschiffe auch die Verpflegung an Bord, so dass die Tagesausflüge entweder zwischen 8:00 und 12:45 Uhr oder 13:15 und 18:00 Uhr, also zwischen den Hauptmahlzeiten, stattfinden. Damit sind auch Restaurants aus den Akteursgruppen ausgeschlossen (Hörnle, 2018a, S. 1–2). Der standardisierte Ablauf dieser Tagesausflüge an die Destination beinhaltet in der Regel Bustransfer, Busparkplatz, Führung durch das Heidelberger Schloss, Führung durch die Heidelberger Altstadt und ca. eine Stunde Freizeit (vgl. Abschnitt 1.1.3). Diese kurze Freizeit erlaubt keinen Besuch weiterer Museen, wodurch auch diese in der Akteursauswahl entfallen. In der Regel werden auf dem Busparkplatz noch Souvenirs gekauft, Kaffee getrunken und auf den Rücktransfer gewartet. Durch den Fokus auf die unmittelbar touristische Leistung am Gast entfallen zudem spezifische Dienstleister wie beispielsweise Hafenmeister oder Frischwarenlieferanten für die Schiffsküche. Infolgedessen lassen sich die zu befragenden Experten klar identifizieren. In Frage kommen demnach die Geschäftsführer bzw. Prokuristen der städtischen Tourismusorganisation, des Heidelberger Schlosses, des Busparkplatzes, des Cafés am Busparkplatz sowie Gästeführer und Busunternehmer (vgl. Abschnitt 2.2.4). Somit wurden Grenzen gesetzt, die den Fall angemessen umgeben (Creswell & Poth, 2018, S. 102–103).

Abstrakt zusammengefasst handelt sich hier um eine gezielte, heterogene Stichprobe. Die Interviewpartner aus dem interessierenden Feld der Flusskreuzfahrtdestination Heidelberg wurden über unterschiedliche Rekrutierungswege angesprochen und ein relativ großes Sample zusammengestellt. Auf diese Weise konnte eine Auswahl von Fällen erreicht werden, die sich alle hinsichtlich des Zielmerkmals „touristischer Akteur der Flusskreuzfahrtdestination“ gleichen. Deren sonstige interne Heterogenität war im Vorfeld aber trotzdem nicht genau bekannt und wurde auch nicht bewusst gesteuert. Dies ermöglicht eine weitere Untersuchung im Zuge der Datenanalyse, z. B. in Form einer Typenbildung (Bjorkman & Malterud, 2009, S. 241). Ebenso wird damit verhindert, dass wichtige Merkmalskombinationen übersehen werden (Döring & Bortz, 2016, S. 303). Ziel ist es, die für den zu untersuchenden Sachverhalt wichtigen Akteursgruppen abzudecken und dennoch möglichst viele Merkmale sowie Merkmalskombinationen im Sample zu erhalten (Bogner et al., 2014, S. 36). Zu den Auswahlkriterien zählt die touristische Geschäftstätigkeit der Akteure. Diese sollte in den letzten fünf Jahren zumindest schwerpunktmäßig an der Destination Heidelberg durchgeführt worden sein und sich überwiegend an die Flusskreuzfahrt richten.

Um fundierte Aussagen hinsichtlich der Veränderungen des Geschäftsmodells zu erhalten, muss es sich bei den Interviewpartnern um Solo-Selbstständige, Unternehmer bzw. Geschäftsführer mit Entscheidungskompetenz handeln (Akremi, 2019, S. 317; Mayer, 2013, S. 37). Zu beachten ist dabei, dass sich in größeren Organisationen Experten nicht notwendigerweise in der ersten Ebene, sondern in der zweiten oder dritten Ebene finden, in der die Entscheidungen vorbereitet werden (Meuser & Nagel, 2009, S. 443), weshalb unter anderem bei Destinations-Management-Organisationen zusätzlich zum Geschäftsführer auch die Prokuristen befragt wurden. „Entscheider in Organisationen sind Experten für ihre jeweilige Organisation und genaue Beobachter von Entscheidungsprozessen, Strukturen und Veränderungen“ (Blöbaum et al., 2016, S. 185–187). Mithin ist die Fallauswahl homogen bezüglich ihrer Zuordnung zu Tourismus, Destination, Flusskreuzfahrt und Führungsposition, bleibt jedoch heterogen hinsichtlich der Tätigkeit und soziodemografischen Eigenschaften (Alter, Ausbildung, Haupt-/Nebentätigkeit). Im Interviewleitfaden war die Möglichkeit einer Schneeball- oder Kettenbezugsstichprobe vorgesehen, indem nach weiteren zu befragenden Experten gefragt wurde. Diese wurde jedoch letztendlich nicht genutzt.

4.3.3 Stichprobengröße und theoretische Sättigung

Aus forschungsökonomischen Gründen war insgesamt nur eine Teilerhebung möglich. Insgesamt wurden 29 Interviews geführt, die sich vier Akteursgruppen zuordnen lassen:

  • Gästeführer (18),

  • DMO und DMC (5),

  • lokale Reisebusunternehmen (4) und

  • sonstige Akteure: Geschäftsführer des Busparkplatzes, Betreiber des Cafés (2).

In bewussten Stichprobenziehungen existieren bezüglich der Stichprobengröße keine exakten Vorgaben (Guest et al., 2006, S. 60). Die Fallzahl liegt mit 29 in dem für qualitative Dissertationen üblichen Rahmen von 20 bis 30 Fällen (Mason, 2010, S. 13). Creswell empfiehlt zwischen 5 und 25 Interviews für eine phänomenologische und 20 bis 30 für eine Grounded-Theory-Studie (Creswell & Poth, 2018, S. 132–141). Da es hier nicht um statistische Verallgemeinerbarkeit geht, kann sich in der Praxis die theoretische Sättigung, je nach Erfahrung des Forschers, nach ganz unterschiedlichen Fallzahlen einstellen und muss im Einzelfall beachtet werden (Crouch & McKenzie, 2006, S. 484; Denzin & Lincoln, 2018, S. 553; Flick, 2017, S. 326). Angelehnt an Patten wurde die Sättigung definiert als „Punkt, an dem mehrere zusätzliche Teilnehmer nicht mit neuen Informationen antworten, die zur Identifizierung zusätzlicher Themen führen“ (Ghaderi et al., 2014, S. 635; Patten & Newhart, 2017, S. 152). Diese war bei der Gruppe der Gästeführer nach den ersten zwölf Fällen erreicht, da dann Handlungsmuster identifiziert werden konnten, die man als typisch für den entsprechenden Handlungskontext interpretieren konnte (Blöbaum et al., 2016, S. 185–187). Darauf deutete insbesondere hin, dass zu diesem Zeitpunkt bei der parallel begonnenen Datenauswertung bereits ein gesättigtes System an Kategorien entstanden war, deren Definitionen nach weiteren Analyserunden stabil blieben (vgl. dazu Guest et al., 2006, S. 74). Bei den DMO und sonstigen Akteuren war das Erreichen einer theoretischen Sättigung dahingehend unmöglich, als dass die maximal existierende Anzahl der Akteure befragt wurde.

4.4 Leitfadenkonstruktion

Der Leitfaden des Interviews wurde aus den Forschungsfragen entwickelt, um im Kern Retrospektive und Echtzeitberichte von Entscheidungen zu erhalten, die im Zusammenhang mit möglicher Geschäftsmodellinnovation und Krisenmanagement der Akteure an der Destination getroffen wurden. Ziel der Formulierungen ist, die Befragten hinsichtlich der forschungsrelevanten Fragestellungen „zum Reden zu bringen“ und um im Redefluss kein Thema zu vergessen (Bogner et al., 2014, S. 27). Im Vorfeld wurden die Fragen in Interviews mit Kollegen getestet, woraufhin einige Formulierungen hinsichtlich einer besseren Verständlichkeit überarbeitet wurden. Für die Gesamtstruktur des Leitfadens in vier Phasen (vgl. 4.4.1) wurden die Empfehlungen von Misoch umgesetzt (Misoch, 2019, S. 71).

4.4.1 Aufbau des Leitfadens

Phase I (Information): :

Hinweise zum Datenschutz und Einverständnis zur Aufnahme

Phase II (Warm-Up): :

Soziodemografische Angaben

Phase III (Hauptteil): :

Themenbereich A: Beschreibung der aktuellen Situation

Themenbereich B: Vergangene Krisen 

Themenbereich C: Geschäftsmodelle und Digitalisierung 

Themenbereich D: Perspektiven und Prognosen

Phase IV (Ausklang): :

Gelegenheit für Befragte zu ergänzenden Äußerungen

Die Phase I (Information) umfasste neben dem Gesprächseinstig wesentliche Hinweise zum Datenschutz und die Einwilligung zur Aufnahme (Döring & Bortz, 2016, S. 373). Phase II diente mit der Abfrage von soziodemografischen Angaben dem sogenannten „Warm-up“ mit den Befragten. Einem natürlichen Gesprächsverlauf angenähert, startet das eigentliche Interview mit Phase III. Als Hauptteil war diese Phase in vier Themenbereiche unterteilt. Im ersten Themenbereich A sollten die Befragten ihre aktuelle Situation schildern. Der zweite Themenbereich B behandelt vergangene Krisen. Der dritte Themenbereich C spricht dann den Fragenkomplex „Anpassung von Geschäftsmodellen und Digitalisierung“ an. Im vierten Themenbereich D werden die Interviewpartner hinsichtlich ihrer Perspektiven und Prognosen zur weiteren Entwicklung des Tourismus befragt. Den Ausklang des Gesprächs bildet dabei immer eine offene Frage mit der Möglichkeit für die befragte Person, selbst noch etwas hinzuzufügen, was für sie in diesem Zusammenhang relevant ist.

Für die Gestaltung des Leitfadens insgesamt bedeutet das Prinzip der Offenheit in seiner konkreten Ausprägung, dass einerseits der Leitfaden selbst offen und flexibel für neue Informationen gestaltet wurde, andererseits aber auch in seiner Handhabung geeignet war, im konkreten Gesprächsverlauf spontan auf die Befragten einzugehen. Auf das Prinzip der Offenheit wurde auch der Befragte am Anfang jedes Interviews hingewiesen.

4.4.2 Interviewfragen

Insgesamt waren die vier Fragenkomplexe in Haupt- und Unterfragen gegliedert. An die Themen angepasst, wurden je nach Bedarf erzählungsgenerierende Fragen, Stellungnahmen- und Bewertungsfragen, Sondierungs- und Faktenfragen eingesetzt (Bogner et al., 2014, S. 62). Die Prozesshaftigkeit wird dabei besonders durch spezifische Fragen zu Vergangenheit, Gegenwart und Prognosen herausgearbeitet.

Um eine gute Verständlichkeit der Fragen zu gewährleisten, wurde auf die bei standardisierten Fragebögen bewährten „Zehn Gebote der Frageformulierung nach Porst“ zurückgegriffen (Porst, 2019, S. 831–839). Einfach umsetzbar waren die Vorschläge zur Vermeidung der Zweideutigkeit von Begriffen, wie auch hypothetische oder suggestive Fragen. Anspruchsvoller gestalteten sich dabei „einfache“ Frageformulierungen zu komplexen Konzepten wie beispielsweise dem Geschäftsmodell. Ebenso erfolgte eine Anpassung an das Sprachniveau der Befragten mit Übergang zu Dialekt unter Inkaufnahme von Schwierigkeiten für die spätere Transkription.

Eine Annäherung an alltäglichen Sprachverlauf (Misoch, 2019, S. 66–67) wurde durch die Reihenfolge der Fragen bzw. Themenbereiche selbst angestrebt. So wird als Erstes die Schilderung der aktuellen Lage erfragt, da diese die meisten Befragten vornehmlich belastet und einen sofortigen Bezug erleichtert. Erst dann erfolgt eine Retrospektive zu vergangenen Krisen und schließlich die Annäherung an den Kern des Untersuchungsgegenstandes mit den Auswirkungen auf das Geschäftsmodell.

  1. A.

    Aktuelle Situation der Akteure

    1. 1.

      Wie bewerten Sie die aktuelle Krisensituation? Inwiefern betrifft Sie diese in Ihrer touristischen Tätigkeit und finanziellen Situation?

  2. B.

    Krisenmanagement der Akteure

    1. 2.

      Welche Situationen haben Sie in den vergangenen Jahren für den Flusskreuzfahrt-Incoming-Tourismus als Krise wahrgenommen?

    2. 3.

      Welche Auswirkungen hatten diese Krisen für Sie?

    3. 4.

      Welche Vorbereitungen haben Sie für solche Krisen getroffen und wie beurteilen Sie Ihr Krisenmanagement?

    4. 5.

      Inwiefern ändern sich Ihr Krisenmanagement durch die aktuelle Corona-Pandemie?

    5. 6.

      In welcher Weise sind dabei Institutionen oder Dritte für Sie eine Unterstützung?

  3. C.

    Geschäftsmodelle und Wettbewerb der Akteure

    1. 7.

      Welche Anpassungen bzw. Veränderungen ergeben sich aufgrund der aktuellen Corona-Pandemie für Ihr Geschäftsmodell und inwieweit verfolgen Sie neue Strategien?

    2. 8.

      Wie bewerten Sie dabei die Rolle der Digitalisierung?

    3. 9.

      Wie wird sich Ihre direkte Konkurrenzsituation in der nächsten Saison entwickeln und inwiefern ergeben sich dadurch Chancen für Ihr Geschäftsmodell?

  4. D.

    Perspektiven und Prognosen der Akteure

    1. 10.

      Welche Aspekte werden sich nach der Wiederaufnahme des Incoming-Tourismus verändern?

    2. 11.

      Wie schätzen Sie den Zeithorizont bis zur Wiederaufnahme des Incoming-Tourismus und die zukünftigen Gästezahlen ein?

    3. 12.

      Welche Rolle spielen für Sie dabei die Quellenmärkte und das Vertrauen der Gäste für Heidelberg als Destination?

    4. 13.

      Wie bewerten Sie mögliche finanzielle Auswirkungen für sich?

4.4.3 Pretest

Vor der eigentlichen Datenerhebung wurde der Leitfaden an drei Personen getestet (Pretest), die der Fallvorauswahl angehören. Sie wurden aufgrund ihrer Bereitschaft gewählt, auch im Fall einer erneuten Befragung mit überarbeitetem Leitfaden zur Verfügung zu stehen. Der Pretest wurde am 08.05.2020 durchgeführt. Zwei Interviews fanden persönlich auf einer Parkbank, bedingt durch Coronaauflagen, im Freien statt. Ein Interview wurde telefonisch durchgeführt. So konnten beide Ausführungsvarianten getestet werden. Infolge des Pretests wurde dem Leitfaden eine Frage nach dem Familienstand hinzugefügt. Eine als unangenehm empfundene Frage nach finanziellen Einbußen wurde zudem im Leitfaden als Nachfrage derart ergänzt, dass diese anstatt mit konkreten Zahlen auch mit Prozentangaben beantwortet werden konnte. Der Familienstand ließ sich bei den Interviews aus dem Pretest im Nachgang unproblematisch erfragen. So gab es keine Veranlassung, die drei Interviews aus der späteren Auswertung auszuschließen. Außer der für jede Akteursgruppe spezifische Ausgestaltung der Fragen zu soziodemografischen Angaben ergaben sich im Verlauf der Interviews keine weiteren Änderungen.

4.5 Datenerhebung: Planung, Durchführung und Datenaufbereitung

4.5.1 Planungsphase

Die Planungsphase der Interviews begann Ende April 2020. Den Auftakt bildete der Aufbau einer Website mit Informationen über das Forschungsprojekt sowie zur Terminbuchung. Zudem wurde eine Liste mit potenziellen Interviewpartnern erstellt. Auf deren Basis wurden die Personen schriftlich per E-Mail und telefonisch kontaktiert, um sie zu einer Teilnahme an der Studie zu bewegen. Der persönliche Zugang zu den Interviewpartnern gestaltete sich aufgrund der langjährigen beruflichen Tätigkeit des Interviewers in diesem Bereich als angenehm und vertrauensvoll (zu den Problemen der Vertrautheit des Forschers mit dem Untersuchungsfeld vgl. Abschnitte 4.7 und 6.4).

Insgesamt wurden 47 Personen angefragt, von denen 33 Personen zugesagt haben. Mit einem detaillierten Anschreiben und Hinweisen zum Forschungsinteresse wurde hier schon im Vorfeld versucht, eine Motivation der Experten zur Teilnahme zu erreichen. Grundsätzlich ist dies bei Experten in leitender Funktion sinnvoll, da diese in der Regel zeitlich stark eingespannt sind (Blöbaum et al., 2016, S. 185–187). Von den geplanten Interviews kamen 29 zustande. Für die vier Absagen wurden berufliche und terminliche Gründe angegeben. Die insgesamt hohe Teilnahmequote kann auch der Situation im Lockdown zugeschrieben werden, da keine berufliche Aktivität möglich, der Bedarf an Austausch über diese insgesamt bedrückende Situation jedoch hoch war. Nach einer Zusage bzw. Terminbuchung erhielt ein Interviewpartner erneut eine E-Mail mit einer Terminbestätigung sowie weiterführende Informationen.

4.5.2 Durchführungsphase

In der Durchführungsphase wurde ein Befragter vor seinem Interviewtermin nochmals telefonisch, per SMS oder in Form einer Nachricht über den Instant-Messaging-Dienst WhatsApp auf Ort und Zeit hingewiesen. Die Gesamtsituation für persönliche Interviews wurde durch den Lockdown und die Kontaktbeschränkungen erschwert. Hier wurde auf die jeweiligen Befindlichkeiten eines Interviewpartners hinsichtlich seiner bevorzugten Art des Kontakts (in Person oder fernmündlich) eingegangen. Alle Interviews wurden vom Forscher selbst durchgeführt, was ein Einweisen und Trainieren weiterer Interviewer überflüssig machte. Ebenso konnte eine durchgängig hohe Qualität der Interviewdurchführung gewährleistet werden. Durch eine bereits existierende Vertrauensbasis zu den Interviewpartnern sprachen diese bereitwillig und offen über ihre persönliche Situation, neue Geschäftsmodelle und gaben finanzielle Details preis. Mit diesem Umstand war im Vorfeld in dieser Form nicht zu rechnen, zumal das Interview aufgezeichnet wurde. Alle 29 Interviews waren von der besonderen Coronasituation im Frühling 2020 betroffen. Die 17 Interviews, die persönlich stattfanden, mussten daher auf einer Bank im Stadtpark realisiert werden. Die restlichen zwölf Interviews wurden auf Wunsch der Interviewpartner in Form von Telefonaten durchgeführt. Die Audioaufnahmen erfolgten durchweg mithilfe eines professionellen Aufnahmegeräts. Zur Sicherheit wurde das Gespräch zudem via Mobiltelefon mitgeschnitten.

Der Ablauf der Interviews war stets derselbe: Nach einer kurzen Begrüßung und Small Talk wurde mit der Vorbereitung der Interviewsituation begonnen und das Aufnahmegerät eingeschaltet. Die Befragten wurden auf das Thema, den Anlass und die Dauer (ca. 45 bis 60 Minuten) des Interviews hingewiesen. Es wurde betont, dass die Audioaufnahme nach den geltenden Datenschutzgesetzen behandelt und zu keinem Zeitpunkt vollständig oder auszugsweise veröffentlicht wird. Auf die Offenheit der Fragen und Antwortmöglichkeiten wurde explizit verwiesen. Bei der Durchführung der Befragung wurde ein möglichst natürlicher Gesprächsverlauf angestrebt und es wurden neben den eigentlichen Interviewfragen auch spontane Nachfragen, Detailfragen sowie Fragen nach Beispielen gestellt, wenn diese das Verständnis der Ausführungen unterstützten. Im Anschluss an die Interviews erfolgte eine zeitnahe Nachbereitung. Es wurden Interviewprotokolle verfasst und relevante Aufzeichnungen in das Forschungslogbuch einer Software zur computergestützten qualitativen Daten- und Textanalyse (MAXQDA) übertragen. Dadurch konnte gewährleistet werden, dass nichts Wichtiges verloren ging, was nicht von den Audioaufnahmen erfasst wurde.

4.5.3 Datenaufbereitung und Transkription

Die aufgenommenen Audiodateien mussten für die Weiterbearbeitung in MAXQDA geschnitten und mit Zeitmarken versehen werden. Einige Interviews mussten aus forschungsethischen Gründen um Teile beschnitten werden. Dies war dann der Fall, wenn sie private Informationen des Gesprächspartners enthielten, die entweder nicht mit dem Forschungszweck der Studie in Verbindung standen oder wenn der Gesprächspartner explizit um Löschung gebeten hatte. Um im Anschluss in der Auswertungssoftware eine bessere Übersicht für die Codierung zu erhalten, wurden alle Transkripte gesichtet und die im Gesprächsverlauf zum Teil unterschiedlich formulierten Interviewfragen in Fettdruck hervorgehoben. Um im Rahmen dieser explorativ angelegten Untersuchung möglichst alle Details und Nuancen der Interviews zu erhalten, wurden die Audioaufnahmen aller Interviews entsprechend den Transkriptionsregeln nach Dresing und Pehl vollständig und mit Zeitmarken transkribiert (Dresing & Pehl, 2018, S. 33). Es handelt sich dabei um ein semantisch-inhaltliches Transkript, das einen schnelleren Zugang zum Gesprächsinhalt zulässt, dabei aber auf genaue Details zur Aussprache verzichtet und infolge leichter lesbar ist (Dresing & Pehl, 2018, S. 18, 20–27). Im Rahmen der Transkription wurde soweit erforderlich eine weitere Anonymisierung von Eigen- und Firmennamen durchgeführt. Dies war besonders durch die Fokussierung auf die Destination Heidelberg notwendig. Die durchschnittliche Transkriptionsdauer betrug ca. 6,5 Stunden je Audiostunde und bewegte sich in der dafür üblichen Bandbreite von fünf bis zehn Stunden (Döring & Bortz, 2016, S. 373). Die Transkriptionsphase dauerte von Juni bis Oktober 2020.

4.6 Datenauswertung: Qualitative Inhaltsanalyse

Im nachfolgenden Abschnitt wird das Vorgehen bei der Auswertung dargestellt. Dabei wurde als wesentliche Grundlage die computergestützte, inhaltlich strukturierende, qualitative Inhaltsanalyse nach Kuckartz (2018, 2020) angewandt (Kuckartz, 2018; Kuckartz & Rädiker, 2020a). Diese wird im Vorfeld kurz beschrieben und deren Bezug zur Forschungsfrage herausgearbeitet. Weiterhin wird die Durchführung der Interviewanalyse erläutert und dabei die Entwicklung des Kategoriensystems beschrieben und dieses näher erklärt. Auf Gütekriterien wird dabei zwar eingegangen, für deren ausführliche Diskussion wird an dieser Stelle auf Abschnitt 4.7 verwiesen.

4.6.1 Methode: Computergestützte, qualitative Inhaltsanalyse nach Kuckartz

Der auf einen Aufsatz von Siegfried Kracauer zurückgehende Ausdruck der qualitativen Inhaltsanalyse (Kracauer, 1952) ist in der deutschsprachigen Literatur überwiegend durch Philipp Mayring in die wissenschaftliche Diskussion gerückt worden (Mayring, 2015, 1. Auflage 1983). Er prägte mit mehreren, auf Kategorienbildung und Kategorienhäufigkeiten gestützten Auswertungsverfahren einen methodisch strengen Anspruch auf Kodifikation dieser hermeneutisch-interpretativ informierten Inhaltsanalyse. Für den Einsatz der methodischen Ausprägung der Inhaltsanalyse nach Kuckartz (2018) sprach im vorliegenden Fall, neben der besonders betonten fallorientierten Perspektive, der Schwerpunkt auf der qualitativen, kategorienbasierten Auswertung unter Beachtung strenger methodischer Gütekriterien (Kuckartz, 2018, S. 6). Besonders die computergestützte Analyse bietet durch ihre größere Nähe zu den Daten intersubjektive Replikabilität, Transparenz und ausgiebige Dokumentationsmöglichkeiten durch z. B. Forschertagebuch oder Memofunktionen.

Die inhaltlich strukturierende qualitative Inhaltsanalyse hat sich als Auswertungsinstrument bereits vielfach bewährt und wurde in der Methodenliteratur in verschiedenen Varianten beschrieben (Kuckartz, 2018; Kuckartz & Rädiker, 2017, 2020a; Rädiker & Kuckartz, 2019). Die Kategorienbildung reicht von vollständig induktiv bis weitgehend deduktiv und ist in der Forschungspraxis in der jeweiligen Reinform nur selten vertreten. Dabei stellen die von Kuckartz vorgestellten drei Analysemethoden „inhaltlich strukturierend“, „evaluativ“ und „typenbildend“ unterschiedliche, jedoch eng miteinander in Beziehung stehende Ausprägungen dar (Kuckartz, 2018, S. 6). Auch wenn vorliegend der Schwerpunkt der Auswertung auf „inhaltlich strukturierend“ gelegt wird, ergeben sich während der Analyse an einigen Stellen auch auf dieser Ebene Mischformen. Zum einen bedingt aus dem Material selbst, zum anderen sofern der Forschungsfrage dienlich. In allen drei Varianten kommt, wie in der vorliegenden Studie, ein mehrstufiges Verfahren zur Kategorienbildung und Codierung zur Anwendung.

Aufgrund der Wahl des teilstrukturierten Interviews als Erhebungsinstrument ist die fokussierte, inhaltlich strukturierende Ausprägung der qualitativen Inhaltsanalyse als Auswertungsmethode besonders geeignet. Dies liegt an der besonderen Strukturierung der Fragen und Antworten bei Experteninterviews. So haben diese durchaus narrative Elemente, folgen aber durch die zielgerichtete Behandlung einer Forschungsfrage und ihrer systematischen Ausrichtung an einem Leitfaden vorab definierten Gesprächsgegenständen (Kuckartz & Rädiker, 2020a, S. 6). Bewusst darauf bezogen, greifen Kuckartz und Rädiker das Adjektiv „fokussiert“ im Namen der Methode auf, das ursprünglich Robert Merton und Patricia Kendall als Bezeichnung für das fokussierte Interview gewählt haben (Merton & Kendall, 1946). Besondere Stärken kann diese Methode in den Vergleichen und Kontrastierungen von Gruppen unter anderem nach soziodemografischen Merkmalen ausspielen, was sich für das Forschungsziel besonders eignet. Diese Kontrastierungen verleihen der Auswertung eine besondere Differenziertheit, Komplexität und Erklärungskraft, weshalb sich die Methode aufgrund des vorliegenden Samples mit unterschiedlichen Akteursgruppen anbietet.

Eine der bemerkenswertesten Entwicklungen in der qualitativen Forschung in den letzten Jahrzehnten war das Aufkommen von Computersoftware, welche die Analyse von qualitativen Daten erheblich vereinfacht. In der angloamerikanischen Literatur prägen Lee, Fielding, Weitzman und Miles den Begriff der computergestützten Software zur qualitativen Datenanalyse (computer aided qualitative data analysis) (Fielding et al., 1998, S. 56–86; Weitzman & Miles, 1995). Sowohl in Bezug auf die Verbreitung von Programmen, die für solche Analysen geeignet sind, als auch in Bezug auf die Anzahl der Personen, die sie benutzen, handelt es sich um einen stark wachsenden Bereich in der qualitativen Forschung (Bryman & Bell, 2011, S. 593). Von den ca. 30 zurzeit existierenden Programmen wird etwa ein Dutzend weiterentwickelt. Die im deutschsprachigen Raum bekanntesten Programme sind für kategorienorientierte Verfahren ATLAS.ti, MAXQDA, NVivo und QCAmap, sowie speziell für Bild und Tonmaterial ELAN und Feldpartitur.

Die Vorzüge in der Nutzung von Computerunterstützung für die Inhaltsanalyse sind mannigfaltig. So ist generell die Verarbeitung größerer Datenmengen bei gleichbleibend übersichtlicher Strukturierung der Daten zu nennen. Zudem lassen sich unterschiedlichste Medien- und Datenformate einbeziehen und verknüpfen. Ebenso erlauben Teamfunktionen paralleles Bearbeiten von Datensätzen. Insgesamt erhöht die Computerunterstützung die Transparenz qualitativer Forschungsprojekte und erleichtert eine detaillierte Dokumentation. In den nunmehr fast 40 Jahren Entwicklung wurden aus einfachen Programmen zum Wiederfinden und Kategorisieren von Textstellen, komplexe Softwarelösungen, die zahlreiche Forschungsstile bis zu Mixed-Methods-Ansätzen unterstützen. Sie bieten von grafischer Unterstützung bei der Modellierung, der Visualisierung von Ergebnissen und komplexen Suchen nach Überschneidungen kodierter Textstellen ein breites Spektrum nützlicher Funktionen (Silver & Lewins, 2014, S. 158–182).

Trotz der Diskussion um den methodischen Stellenwert von CAQDAS als eigenständige Methodik ist hier festzuhalten, dass es sich dabei primär um ein Werkzeug handelt und der Forschende selbst noch die Interpretation und Analyse der Daten erbringt, aber durchaus umfangreiche Analyseverfahren durch CAQDAS erst möglich geworden sind (Kuckartz & Rädiker, 2017, S. 3). Für den Einsatz der QDA-Software MAXQDA (Version 2020 Analytics Pro) in der vorliegenden Studie sprach vornehmlich die Forschungsfrage, bei der Systematisierung und Zusammenfassung Ziele der Auswertung waren. Hier bot die Software die Möglichkeit, zu jedem Zeitpunkt von der generierten Theorie zu deren empirischer Basis zurückzukehren, was unter dem gewählten Design, neben der durch die Software erreichbaren Transparenz und Nachvollziehbarkeit, als besonders sinnvoll eingeschätzt wurde. Zudem war die Nähe der gewählten Inhaltsanalyse nach Kuckartz zum Softwarehaus, neben guter Dokumentation und zahlreichen Publikationen zur Umsetzung eines Forschungsprojekts mithilfe der Software, entscheidend für die Wahl derselben (Kuckartz & Rädiker, 2019; Rädiker & Kuckartz, 2020).

4.6.2 Durchführung der Inhaltsanalyse

Kuckartz und Rädiker (2020) bezeichnen ihr Auswertungsverfahren zuletzt als fokussierte Interviewanalyse, die von der Vor- und Aufbereitung der Daten bis hin zum Verfassen des Forschungsberichts sowie der Dokumentation des Analyseprozesses sechs Schritte umfasst (Kuckartz & Rädiker, 2020a, S. XVI und S. 15). Sie beziehen sich mit der Formulierung „fokussiert“ bewusst auf eine von Merton und Kendall eingeführte Form der Interviewerhebung, die auf vorab definierte Gesprächsgegenstände im Zentrum der Datenerhebung abzielt (Merton & Kendall, 1946, S. 541–557). Diese inhaltsanalytisch geprägte Analysemethode ist speziell für Interviews konzipiert, deren Gesprächsgegenstände vorab in einem Leitfaden festgehalten werden.

Daher bot sich der Einsatz der fokussierten qualitativen Inhaltsanalyse nach Kuckartz und Rädiker (2020) für die vorliegende Studie aufgrund der eingangs geschilderten Datenerhebungsmethode an (vgl. Abschnitt 4.2). Im Folgenden wird die Anwendung dieser Vorgehensweise in sechs Schritten näher beschrieben. Der erste Schritt ist die Datenvorbereitung und Exploration, der zweite Schritt ist die Entwicklung des Kategoriensystems, der dritte Schritt ist die Basiskodierung, der vierte Schritt ist die Weiterentwicklung des Kategoriensystems und die Feinkodierung, der fünfte Schritt ist die Analyse der kodierten Daten, die aus Vergleichen, Modellen und Visualisierungen besteht, der sechste und letzte Schritt ist die Berichterstattung und Dokumentation.

4.6.2.1 Datenvorbereitung

Im ersten Schritt standen die Vorbereitung und Organisation des Datenmaterials in der QDA-Software MAXQDA im Mittelpunkt. Es wurde ein neues Projekt angelegt und darin die transkribierten Interviews samt Audioaufzeichnungen importiert. Das Anlegen von Zeitmarken bei der Transkription erleichtert den Auswertungsprozess erheblich. Es ermöglicht, bei Unklarheiten und Verständnisproblemen, auf die originale Interviewpassage zurückzugreifen zu können. Ebenso ist für die Textarbeit eine farbliche Hervorhebung der Interviewfragen in den Transkripten hilfreich.

Gerade am Anfang eines MAXQDA-Projekts ist es wichtig, sich der Gewichtungsfunktion für codierte Segmente bewusst zu sein. Diese Einstellung ermöglicht eine Gewichtung von 0 bis 100 vorzunehmen. Durch diesen Skalenwert kann der Forscher also bestimmen, zu welchem Grad ein codiertes Segment, den in der jeweiligen Kategorie gemeinten Inhalt zum Ausdruck bringt. Um später Gewichtungen bei Bedarf sowohl nach oben als auch nach unten variieren zu können, wurde hier bei allen Interviews eine Standardgewichtung von 50 gewählt.

Die Interviews wurden entsprechend den Akteursgruppen des Samples in vier Dokumentgruppen gegliedert. Diese Aufteilung ermöglicht in der Auswertung die angestrebte Analyseform der „qualitativen Fall- und Gruppenvergleiche“ bzw. eine Kontrastierung.

Aus dem jeweiligen Interviewtranskript mussten die soziodemografischen Daten zunächst aus dem Text extrahiert und in 30 Fallvariablen überführt werden. Dazu gehören Metadaten wie Akteursgruppe, Interviewdatum, Typ sowie die üblichen sozioökonomischen Variablen wie Alter, Geschlecht, Nationalität, Familienstand, Abitur, Studium, Berufsausbildung, aber auch spezifische Angaben wie Ausbildung zum Reiseleiter, Berufserfahrung, Verbandszugehörigkeit, Einkommen, Unternehmens-/Rechtsform, Anzahl der Mitarbeiter, Anzahl der Busse, Destination, Sprachen, Kreuzfahrtanteil in %, Anteil ausländischer Gäste in % und durchschnittliche Gästezahl pro Jahr. Der Import wurde überprüft und boolesche Variablen sowie Prozentangaben händisch ergänzt. Dieser Schritt vereinfacht die spätere Auswertung, da MAXQDA sowohl für quantitative als auch für Mixed-Methods-Ansätze entsprechende Analysetools bereithält. Inhaltlich wurde in dieser Phase auch auf die Forschungsfragen und Vorannahmen zurückgegriffen und im Sinne einer hermeneutischen Spirale (Danner 1979 zitiert nach Mayring, 2016, S. 30) nachgeschärft.

Im Anschluss erfolgte die Exploration der Daten durch ein Einlesen in die Transkripte. Erstes Ziel war es dabei, Auffälligkeiten und Muster zu entdecken und die Fälle als Ganzes zu betrachten. Die Herausforderung bestand darin, sich mit den Texten vertraut zu machen, ohne sich sofort auf eine kategorisierende Sichtweise einzelner Themen festzulegen (Kuckartz & Rädiker, 2020a, S. 13). Dabei wurden Ideen, Auffälligkeiten sowie Möglichkeiten der Auswertung festgehalten. Dies erfolgte in der QDA-Software im Forschungslogbuch und in Memos. MAXQDA bietet dabei mehrere sinnvolle Optionen. Genutzt wurden sowohl sogenannte freie Memos als auch solche, die mit der konkreten Textstelle verknüpft sind. Das konsequente Führen eines Forschungslogbuchs erleichtert die abschließende Verschriftlichung der Ergebnisse und unterstützt den Forscher bei der Reflexion seiner eigenen Subjektivität.

4.6.2.2 Entwicklung des Kategoriensystems

Zunächst wurde ein hierarchisches Kategoriensystem, deduktiv aus dem Interviewleitfaden entwickelt. Dabei erwiesen sich thematische Hauptkategorien in Bezug auf die Beantwortung der Forschungsfragen als zielführend (Braun & Clarke, 2006, S. 80). Zur Beurteilung der Güte des Kategoriensystems wurden unterschiedliche Kriterien angewandt. Die einzelnen Kategorien müssen unter anderem in enger Beziehung zu den Forschungsfragen stehen, erschöpfend, trennscharf, wohlformuliert, verständlich und nachvollziehbar sein. Zusammen sollen diese ein gutes und brauchbares Kategoriensystem ergeben, dass die Analyse effektiv und effizient unterstützt (Kuckartz & Rädiker, 2020a, S. 34).

Es entstanden dabei fünf ordnende Hauptkategorien:

  1. A.

    Geschäftliche Situation: im Lockdown

  2. B.

    Geschäftliche Situation: in vergangenen Krisen

  3. C.

    Geschäftsmodell: Anpassung ggf. Digitalisierung

  4. D.

    Geschäftliche Situation: Prognose

  5. E.

    Trüffel am Waldrand

Ordnende Kategorien sind dabei Kategorien, welche nicht direkt bei der Analyse zum Einsatz kommen. Sie sind keiner Textstelle zugeordnet und haben eine gliedernde Funktion, die im Kategoriensystem für Übersichtlichkeit sorgt (Kuckartz & Rädiker, 2020b, S. 27). Die Konstruktion eines solchen Systems von Kategorien ist dabei zeitintensiv, da das regelgeleitete Verfahren an dieser Stelle auch Definitionen für die Kategorien verlangt. Dabei wurde dem Vorschlag von Kuckartz (2018) gefolgt, vorab ein allgemeines Schema für Kategoriendefinitionen festzulegen (Kuckartz, 2018, S. 40, Abb. 2). Diese Definitionen wurden im MAXQDA-Projekt, jeweils mithilfe von Codememos, direkt bei der jeweiligen Kategorie festgehalten.

Es wurde folgendes Standardschema für Kategoriendefinitionen entwickelt: Zunächst musste die Kategorie selbst eine prägnante Bezeichnung erhalten. Anschließend wurde jede Kategorie inhaltlich definiert, beschrieben und mit konkreten Codierbeispielen illustriert. Soweit nötig wurde eine positive oder negative Abgrenzung, ggf. mit Kriterien, zu anderen Kategorien festgelegt. Die Kategoriendefinitionen erfüllen dabei eine wichtige Doppelfunktion. Sie belegen die grundlegenden Elemente der Inhaltsanalyse für die Rezipienten der Studie und stellen gleichzeitig den Codierleitfaden für die Zweitcodierenden dar. Gleichzeitig dokumentieren Kategoriendefinitionen Sorgfalt und Präzision der Forschungsarbeit (Kuckartz, 2018, S. 40).

Als Beispiel sei hier die Kategorie „A.1. Restriktionen“ aufgeführt: Restriktion bedeutet die Begrenzung oder Einschränkung von Rechten, Befugnissen oder Möglichkeiten von jemandem. Diese Kategorie wird (positiv) verwendet, wenn es sich um die Beschreibung von rechtlichen, aber auch faktischen Restriktionen handelt, die sich konkret auf die Ausübung der touristischen Tätigkeit der Akteure auswirken (Beispiele in Interviews: Auflagen, Abstand oder Kontaktsperre). Die Kategorie wird (negativ) nicht verwendet, wenn Ängste angesprochen werden.

Die nach dem ersten Einlesen in die Transkripte notierten Ideen und Auffälligkeiten wurden zu diesem Zeitpunkt mit dem Kategoriensystem verglichen und bei Bedarf ergänzt. Zusätzlich wurde eine weitere ordnende ordnenden Kategorie Z „Trüffel am Waldrand“ sowie eine außerhalb der Hierarchie stehende Kategorie „Mögliche O-Töne“ angelegt. Als Kategorie Z „Trüffel am Waldrand“ wurden über die eigentliche Forschungsfrage hinaus, interessante und möglicherweise später relevante Textstellen codiert. Die Sammlung „Mögliche O-Töne“ dient einem leichteren Zugriff auf prägnante Aussagen bei der späteren Verschriftlichung der Ergebnisse.

4.6.2.3 Basiscodierung induktiv

Im Anschluss erfolgte mit der Basiscodierung der erste Codierprozess. Zunächst wurden drei Interviews mit dem zuvor erstellten Kategoriensystem codiert, d. h., entsprechende Aussagen im Interview einer Kategorie zugeordnet. Codieren bezeichnet dabei die Verbindung von Textstellen oder Segmenten mit einer Kategorie (in MAXQDA als Code bezeichnet). Diese kann in zwei Richtungen erfolgen. Einerseits kann Textinhalt unter eine a priori gebildete Kategorie subsummiert werden. Andererseits als Kreation eines völlig neuen Begriffs, als Akt des Generierens einer Kategorie, die in den Daten erkannt wurde (Kuckartz, 2018, S. 41).

Auftretende Zuordnungsprobleme von Textstellen zu einer thematischen Hauptkategorie wurden direkt in Memos festgehalten und nach Diskussion mit einem Forscherkollegen aufgelöst. Dieser Prozess zielt dabei weniger darauf, einen statistischen Koeffizienten für die Intercoder-Übereinstimmung zu berechnen (vgl. Abschnitt 4.6.2.5), sondern vielmehr für eine hohe Codequalität zu sorgen, indem der Fokus gleich zu Beginn auf die Ursachen für Nicht-Übereinstimmungen gelegt wird (Kuckartz & Rädiker, 2020b, S. 48).

Das Ergebnis des ersten Durchlaufs der Basiscodierung war eine viel zu feingliedrige Codierung. So wurden z. B. nur einzelne Worte oder gar Wortsilben codiert. Dieses Ergebnis widersprach dem eigentlichen Sinn der Basiscodierung, die nur einer groben Vorsortierung des Materials dient. Dementsprechend wurden für weitere Durchgänge klare Codierregeln definiert und in einem MAXQDA-Memo festgehalten. Geregelt wurden beispielsweise der Umfang von Codierungen sowie der Umgang mit Mehrfachinformationen. Auch das Procedere für das nachträgliche Zusammenlegen von codierten Textpassagen in eine neue Kategorie wurde festgelegt. Im Anschluss wurden die Dokumente abermals nach den neuen Regeln codiert. Insgesamt erfolgte für jedes Interviewtranskript eine Erstcodierung durch den Forscher und im Anschluss eine Zweitcodierung durch einen Forscherkollegen. Etwaige Divergenzen wurden jeweils besprochen und im Diskurs aufgelöst.

Bei der Basiscodierung ist es üblich, dass das Kategoriensystem weiterentwickelt und die Kategoriendefinitionen weiter präzisiert werden. Die eingangs in Memos festgehaltenen Aspekte wurden an dieser Stelle mit dem Kategoriensystem in Bezug gebracht und ergänzt. Eine solche Ergänzung stellt z. B. die bei der ordnenden Kategorie Z „Trüffel am Waldrand“ hinzugefügten Kategorien wie u. a. Flusskreuzfahrt, Nachhaltigkeit oder Corona-Impfung, dar. So konnten die auf den ersten Blick für die Forschungsfrage nicht relevanten, aber möglicherweise dennoch interessanten Aspekte für eine spätere Auswertung zugeordnet werden.

An diesem Punkt im Projekt erfolgte unter anderem die Anpassung der kompletten ordnenden Kategorien A (Situation während der CORONA-Pandemie), B (Situation nach vergangenen Krisen) und C (Geschäftsmodellinnovation und Digitalisierung). Vergleicht man an diesem Punkt das anfängliche Kategoriensystem mit weiteren Versionen des Kategoriensystems (vgl. z. B. Abbildung 4.1) wird das Ausmaß dieses Entwicklungsprozesses deutlich. Beispielsweise sollte durch spezifische Interviewfragen zu Vergangenheit, Gegenwart und Prognosen die Prozesshaftigkeit der Geschäftsmodellinnovation und auch des Krisenmanagements abgefragt werden (vgl. Abschnitt 4.4.2). Dementsprechend mussten einzelne Kategorien anderen Hauptkategorien zugeordnet werden, damit sich diese Prozesshaftigkeit auch im Kategoriensystem spiegelt. Dabei wurde insbesondere Wert auf der Reihenfolge und Anordnung der Kategorien gelegt um nah an den Forschungsfragen angelehnt die Verschriftlichung der Ergebnisse zu erleichtern. Die Präzisierung und Ausarbeitung des Kategoriensystems und der Forschungsfragen erfolgten wechselseitig in einem dynamischen Prozess. Weitere Schärfungen an den Forschungsfragen entstanden unter Zuhilfenahme des PICO-Modells (Bryman, 2007; Nordhausen & Hirt, 2020, S. 18). Jede Änderung an einer spezifischen Kategorie zieht notwendigerweise einen erneuten Codierdurchlauf aller Transkripte zu diesem Code nach sich. Dieser Schritt erwies sich daher als besonders zeitintensiv führt aber durch jeden weiteren Durchlauf zu präziseren Kategorien und eindeutigeren Codierungen mithin also zur Erhöhung der Code Güte.

Im Anschluss wurden die codierten Segmente in MAXQDA paraphrasiert. Paraphrasieren bedeutet den Textinhalt möglichst nah an der Ursprungsformulierung, aber in komprimierter Form, in einem Kommentar zusammenzufassen. Dieser aufwändige Arbeitsschritt erleichtert die Interpretation des Materials im weiteren Verlauf. MAXQDA bietet mit der Funktion „Codierte Segmente“ eine übersichtliche Listendarstellung dieser Zusammenfassungen. Durch die komprimierte Darstellung der Kommentare lassen sich in MAXQDA bereits an dieser Stelle Ähnlichkeiten und Unterschiede über alle Fälle hinweg erkennen. Dabei verschiebt sich die Perspektive vom Einzelfall auf die einzelnen Themen und Aspekte, die mit einer (Haupt-)Kategorie erfasst wurden (Kuckartz & Rädiker, 2020b, S. 73).

4.6.2.4 Fokussierte induktive Codierung

An die Basiscodierung schloss sich eine fokussierte Codierung an. Bei dieser sogenannten Subcodierung wird nicht mehr Fall für Fall, sondern Kategorie für Kategorie vorgegangen. Dabei wurden Subkategorien induktiv aus dem jeweils codierten Material heraus entwickelt (Subcodierung). In diesem wesentlich komplexeren Schritt findet eine weitere Ausdifferenzierung der bisherigen Kategorien statt. Fokussiert ist die Codierung, da sie sich mit einem starken Fokus auf die ausgewählte Kategorie innerhalb der Interviewaussagen konzentriert. Waren in der Basiscodierung noch sehr viele Aspekte und Themen gleichzeitig zu beachten, erfüllt dieser weitere Schritt den Zweck der Reduktion von Komplexität. Infolgedessen lassen sich Inhalte zu dem speziell ausgewählten Thema besser erfassen. Gleichzeitig verlagert sich die Komplexität durch die Untergliederung auf ein neu entstehendes, ausdifferenziertes Bild der Oberkategorie. Explizit schildern Kuckartz und Rädiker die an dieser Stelle auftauchenden Grenzen und Schwierigkeiten der Formalisierung dieses Vorgangs in MAXQDA (Kuckartz & Rädiker, 2020b, S. 63–64).

Im vorliegenden Projekt wurde dafür deshalb ein eigenes Verfahren angewandt. Bei beschreibenden Kategorien wurden dabei die Inhalte der Kommentare der codierten Segmente abstrakt, aber nah am Originaltext der Interviews zusammengefasst. Die in Abschnitt 4.6.2.3 angesprochenen Ähnlichkeiten, Unterschiede und wenn vorhanden Bezüge zu weiteren Kategorien, wurden in den gesamten Kommentaren in einem weiteren Durchgang überarbeitet und normalisiert, d. h. die Stichwörter angeglichen. Dabei wurden die Aussagen und Inhalte in Überbegriffen zusammengefasst, eingefärbt, sortiert, verglichen. So konnten in der Listenform Zusammenhänge besser dargestellt und daraus induktiv im nächsten Schritt weitere Unterkategorien abgeleitet werden. Auch die Exploration der Segmente der jeweiligen Kategorie wurde dadurch erheblich erleichtert. Bei inhaltlich wichtigen Kategorien wie z. B. C.1 der Geschäftsmodellinnovation wurde der paraphrasierte Text, durch die im ersten Durchgang erarbeiteten Stichworte und das dazu passende Originalzitat im Kommentar ergänzt, um trotz der Abstraktion die Nähe zur Aussage des befragten Experten und zur Originalformulierung zu erhalten.

Grundsätzlich wurden alle Kategorien induktiv aus dem gesichteten Material entwickelt. Es wurden Kategorien ausgewählt, die sich, während eines besonderen Falls herauskristallisierten, und auf Unterschiede und Ähnlichkeiten zwischen den anderen Fällen hin überprüft. Die Fälle wurden auch paarweise oder nach Akteursgruppen verglichen, um subtilere Unterschiede zu erkennen. Bei der Entwicklung der Subkategorien standen stets die Forschungsfragen im Mittelpunkt, sowohl hinsichtlich der Anzahl als auch des Abstraktionsgrades der Subkategorien. Abschließend wurden die durchgeführten Schritte wiederum mit einem Forscherkollegen diskutiert. Diese fallübergreifende Analyse der Begriffe erlaubt die Muster auf objektive Weise vergleichen zu können. An diesem Punkt zeigten sich Verbindungen zu bestehenden Theorien und Modellen.

Ebenso wurden die bereits bei der Basiscodierung beschriebenen Gütekriterien für die Bildung von Subkategorien angewandt und erneut Kategoriendefinitionen verfasst. Zu diesem Zeitpunkt musste besonders bedacht werden, ob Faktenkategorien (z. B. konkrete Krisenereignisse), evaluative (z. B. Prognosen kurz/mittel/langfristig), analytische (z. B. Digitalisierung vs. Technische Innovation) oder sogar ordnende Kategorien (z. B. vergangene Krisen/aktuelle Krise) am besten für die Beantwortung der Forschungsfragen geeignet waren beziehungsweise überhaupt gebildet werden konnten. Wesentliche Änderungen von Kategorien oder Kategoriendefinitionen erforderten an dieser Stelle einen erneuten Codierdurchlauf. Der fließende Übergang, zwischen der Beschreibung der Durchführung und der Darstellung von Ergebnissen, ist in diesem Fall am ausdifferenzierten Kategoriensystem und den Kategoriendefinitionen zu erkennen.

Ein häufiger Diskussionspunkt mit dem Forscherkollegen war in dieser Phase die mehrfache Codierung von Textpassagen mit identischem Informationsgehalt innerhalb desselben Interviews (sog. Mehrfachcodierung). Abhängig von der Forschungsfrage kann die Erfassung von Wiederholungen derselben Information, beispielsweise für die Gewichtung einer Aussage, einen Mehrwert haben. Ist eine Mehrfachcodierung jedoch unbeabsichtigt, führt sie bei manchen Auswertungsarten zu Verzerrungen der Ergebnisse. Die hier gefundene Lösung liegt in einem differenzierten, von der Kategorienart abhängigen, Umgang mit diesen Wiederholungen. So wurde beim Erfassen von Fakten die gleiche Information nur einmal codiert (z. B. „Corona-Hilfe beantragt“). Bei anderen Kategorienarten wurden wiederholte Äußerungen dagegen mehrfach codiert (z. B. „eine solche Krise habe ich noch nie erlebt“). Dies lässt in der Analyse die Möglichkeiten offen, eine Wiederholung nur einmal zu werten (als Fakt), mögliche Widersprüche aufzudecken oder das Wiederholen per se in die Interpretation der Aussage einzubeziehen (Rädiker & Kuckartz, 2019, S. 287–303).

4.6.2.5 Überprüfung mittels Koeffizienten

An dieser Stelle wird sich in vielen Arbeiten bei der Überprüfung von Kategorienzuordnungen auf zufallskorrigierte Koeffizienten wie Kappa oder Krippendorffs Alpha verlassen. Diese Koeffizienten bergen, vor allem bei der hier verwandten induktiven Vorgehensweise, jedoch mehrere Fallstricke. Es geht in der qualitativen Analyse, anders als in der quantitativen Forschung bei den Messungen von Reliabilität, darum, hohe Zuverlässigkeit hinsichtlich der Codezuordnungen zu erreichen. Somit kann ein Koeffizient lediglich ein Hinweis auf Unstimmigkeiten beim Codiervorgang sein, da er die Güte gleichsam statisch angibt (Verbi, 2022).

Im qualitativen Forschungsparadigma geht es um eine praktische Verbesserung der Güte von Codierungen, um mit „besser“ codiertem Material weiterarbeiten zu können. Deshalb sind Koeffizienten als absolutes Gütekriterium problematisch, da sie eine nicht vorhandene Sicherheit vermitteln. Schließlich bedeutet eine 90 % Übereinstimmung gleichzeitig eine 10 % Nicht-Übereinstimmung, sprich eine Abweichung bei jeder zehnten Codierung. Besonders bei induktivem Codieren sind Übereinstimmungen von 90 % oder mehr aber kaum zu erreichen, da die Wahrscheinlichkeit äußerst gering ist, dass zwei unabhängige Codierende, bei fast dreißig Interviews, von mehreren 1000 Wörtern, gleiche Worte oder Sätze mit gleichem Code versehen. Markiert beispielsweise der erste Bearbeiter die drei wichtigen Worte des Satzes und der zweite alle zehn Wörter des ganzen Satzes, führt das zu einer erheblichen Abweichung der Intercoder-Übereinstimmung, ohne dass sich jedoch die Güte der Codierung oder des Inhalts verändert. Für die Überprüfung der Intercoder-Übereinstimmung sind zudem die fehlenden einheitlichen Vorgaben kritisch. Beispielsweise kann zum Nachweis von Codeüberlappung an Segmenten (der für qualitative Codierung typischen Variante) der Schwellenwert frei eingestellt werden. Somit ist die Grundlage für die Berechnung des Koeffizienten durch den Forscher beeinflussbar, da er selbst die Schwelle festlegt, ob zwei Codierer in der Codierung des gleichen Segments übereinstimmen (vgl. Kuckartz, 2018, S. 200–224; Verbi, 2022). Dies mindert nicht nur die Aussagekraft der ermittelten Koeffizienten, sondern auch deren Vergleichbarkeit von Studie zu Studie.

Abschließend lässt sich daher festhalten, dass ein Koeffizient in diesem Forschungsrahmen lediglich als Hinweis dienen kann und dass die Auflösung der Unstimmigkeiten bzw. Nicht-Übereinstimmung anderweitig erreicht werden muss, z. B. im Diskurs mit Forscherkollegen. Über die einfache Ermittlung eines zufallsbereinigten Koeffizienten hinaus, wurde daher dem qualitativen Grundgedanken folgend, die Güte der Analyse durch das bereits angesprochene fortlaufend diskursive Verfahren zur Verbesserung der Codierqualität und Überprüfung der Intercoder-Übereinstimmung erreicht (Rädiker & Kuckartz, 2019, S. 287–303) (vgl. auch Abschnitt 4.7).

4.6.2.6 Abweichend deduktives Vorgehen bei Dimensionen der Geschäftsmodellinnovation

Für die im Rahmen der zweiten Forschungsfrage aufgestellten Unterfrage „Inwiefern handelt es sich dabei um Geschäftsmodellinnovationen?“ kommt, anders als für die bisherigen Fragen kein induktives Vorgehen in Betracht. Ein deduktives Vorgehen ist bereits dann indiziert, wenn unbekannter Daten mit einem im Vorfeld bekannten Konzept „Geschäftsmodellinnovation“ verglichen werden sollen. Ausgehend vom theoretischen Konstrukt müssen Kategorien gebildet und definiert werden, unter denen dann die Textpassagen codiert werden.

Ein vollständig induktives Vorgehen, wie es in der vorliegenden Arbeit angestrebt wird, ist in der Forschungspraxis in seiner Reinform selten anzutreffen (Kuckartz, 2018, S. 6). Die gezielte Kombination mit einem deduktivem Vorgehen hat im vorliegenden Fall den zusätzlichen Nutzen, dass die induktiv gewonnenen Ergebnisse der Kategorie C.1 (Geschäftsmodellinnovation) mit den deduktiv gewonnenen Ergebnissen der Kategorie C.2 (Dimensionen der Geschäftsmodellinnovation) verglichen, gegebenenfalls verifiziert oder falsifiziert werden können, um eine höhere Güte der Ergebnisse zu erreichen (vgl. Abbildung 4.1).

Abbildung 4.1
figure 1

(Quelle: Eigene Darstellung)

BMI-Kategorien induktiv und deduktiv (Kategoriensystem).

Als theoretische Grundlage wurde auf die in Abschnitt 3.2 bereits angesprochene Arbeit von Clauss (2017) zurückgegriffen, da es sich um eine der wenigen Forschungen handelt, welche eine – in ihrem Fall quantitative Messung – versucht und dabei empirisch validierte Dimensionen der Geschäftsmodellinnovation entwickelt. Diese Dimensionen erhält Clauss (2017) durch die Inhaltsanalyse der Literatur aus den Jahren 2002–2014. Darin aggregiert er die von ihm aufgedeckten BMI-Subkonstrukte. Aus 120 potenziellen Geschäftsmodellkomponenten ermittelte er 73 semantisch unterschiedliche Optionen und ordnete diese einer der drei Haupt Dimensionen zu. Eine Konsolidierung der 73 Komponenten in 10 Subkonstrukte der drei Dimensionen des Geschäftsmodells erfolgt in einer zweiten Überprüfungsrunde. Darauf entwickelt er Elemente, um die Veränderungen in jedem der Unterkonstrukte feststellen zu können. Clauss (2017) führte anschließend zwei Stichprobenrunden durch, um den ursprünglichen Itempool zu testen, die Messgrößen zu verfeinern und die Skala zu finalisieren. Bei der Entwicklung der Maße stützte sich Clauss stark auf die neun Elemente der Business-Model-Canvas von Osterwalder und Pigneur (2010). Aus einem Mixed-Methods-Ansatz entstehen durch die Kombination von seiner Literaturanalyse, selbst entwickelten Elementen und empirischer Überprüfung seine zehn Subdimensionen. Diese lässt er von sechs Experten aus dem akademischen Bereich auf Repräsentativität testen. In zwei weiteren Testrunden werden sie von Praktikern aus produzierenden Unternehmen verschiedener Branchen getestet. Insgesamt wird der Beitrag von Clauss (2017) sowohl für Wissenschaftler als auch für Praktiker als wertvoller Beitrag zur Messung von BMI angesehen (Bouwman et al., 2019, S. 101830; Kraus et al., 2020, S. 2050055). Kritisch wird in der Literatur die Stichprobe mit dem Fokus auf Maschinenbau- und Elektronikunternehmen betrachtet.

Die ersten drei Hauptkategorien „Wertschöpfung“ (C.2.1.), „Wertangebot“ (C.2.2.) und „Werterfassung“ (C.2.3.) beziehen sich auf die grundlegende Definition des Geschäftsmodells (vgl. Abschnitt 3.1.3) und stellen notwendigerweise die Elemente des Geschäftsmodells dar, in denen Innovationen stattfinden können. Diese drei Hauptdimensionen werden von Clauss (2017) in zehn weitere Unterkategorien aufgeteilt.

C.2.1. Die Innovation der „Wertschöpfung“ unterteilt sich in (1) neue Fähigkeiten, (2) neue Technologien/Ausrüstungen, (3) neue Partner und (4) neue Prozesse.

C.2.2. Die Innovation des „Wertangebots“ unterteilt sich in (5) neue Angebote, (6) neue Kundensegmente oder Märkte, (7) neue Vertriebskanäle und (8) neue Kundenbeziehungen.

C.2.3. Die Innovation der „Werterfassung“ unterteilt sich in (9) neue Ertragsmodelle und (10) neue Kostenstrukturen.

Aufgrund ihrer Bedeutung für die deduktive Codierung der Kategorien werden die Kategoriendefinitionen der zehn Subkategorien zu Geschäftsmodellinnovation an dieser Stelle näher ausgeführt.

  1. 1.

    Die Kategorie „Neue Fähigkeiten“ (C.2.1.1.) beschreibt die Entwicklung neuer Fähigkeiten im Unternehmen. Das sind Fähigkeiten, die das Unternehmen in die Lage versetzen Chancen zur Innovation nutzen zu können, wenn diese sich aus externen Umständen ergeben. Beispiele: Schulungen, Maßnahmen zur Wissensintegration oder kontinuierlichem Lernen. In Summe alle Maßnahmen, die sich auf die Erweiterung von Kernkompetenzen, Kernaktivitäten, Führungsqualitäten, Information, Ressourcen und Fähigkeiten im Unternehmen richten.

  2. 2.

    Die Kategorie „Neue Technologien/Equipment“ (C.2.1.2.) konzentriert sich auf neue technologische Ressourcen. Diese können für die Durchführung von Geschäftsmodellinnovationen erforderlich sein. Problematisch sind neue Geschäftsmodelle, die mit einer neuen Technologie verbunden sind. Beispiel: Ein neues technisches System zur Zahlungsabwicklung kann sowohl der Einsatz einer neuen technologischen Ressource sein als auch ein neues Einnahmemodell darstellen. Abgrenzung zu neuen Produkt- oder Dienstleistungsangeboten, die eine neue Produktionstechnologie erfordern. Diese sind als „neues Angebot“ (C.2.2.1.) zu kategorisieren.

  3. 3.

    Die Kategorie „Neue Partnerschaften“ (C.2.1.3.) beschreibt eine besondere Art externer Ressourcen, die dem Unternehmen zur Verfügung stehen und für Innovation nutzbar sind. Entscheidend ist hierbei, ob durch eine neue Partnerschaft ein Mehrwehrt generiert wird, der allein nicht erreichbar ist. Beispiele: Neue Partnerschaften mit Lieferanten, Kunden, Mit- oder Wettbewerbern. Diese Kategorie umfasst sowohl neue Partnerschaften als auch den Erhalt bestehender Beziehungen.

  4. 4.

    Die Kategorie „Neue Prozesse/Strukturen“ (C.2.1.4.) beschreibt die Verbindungen der wertschöpfenden Aktivitäten innerhalb eines Geschäftsmodells. Beispiel: Ein neuer Prozess, der den Grad der Effizienz eines Geschäftsmodells steigert. Hierunter fallen auch neue Prozesse, die selbst die Basis von Geschäftsmodellinnovation darstellen.

  5. 5.

    Die Kategorie „Neues Angebot“ (C.2.2.1.) beschreibt was dem Kunden zur Lösung seines Problems oder zur Bedürfnisbefriedigung auf eine „neue“ oder „bessere“ Art angeboten wird. Diese Neuerung kann dabei auf der Entwicklung von neuen Produkten und Dienstleistungen beruhen. Problematisch ist in diesem Kontext die Anwendung neuer Technologien. Vgl. Abgrenzung zu „Neue Technologien/Equipment“ (C.2.1.2.).

  6. 6.

    Die Kategorie „Neue Kunden/Märkte“ (C.2.2.2.) beschreibt die Neuausrichtung hinsichtlich einer neuen Kundengruppe oder eines neuen Marktsegments (Neudefinition bestehender Märkte/Eintritt in neue Märkte). Beispiel: Onlinegästeführung für Menschen mit Mobilitätseinschränkungen. Das Produkt oder die Dienstleistung kann dabei gegenwärtig oder in der Zukunft einer neuen Kundengruppe angeboten werden.

  7. 7.

    Die Kategorie „Neuer Vertriebskanal“ (C.2.2.3.) beschreibt wie der Mehrwert beim Kunden generiert wird. Beispiele: Die Kombination von Online- und Offline-Kanälen oder aber auch die Einbindung von Großhändlern. Gästeführer, die ihre Aufträge statt wie bisher über Agenturen, jetzt direkt über Ihren eigenen YouTube-Kanal akquirieren. Besonders ist hier auf die Abgrenzung zu „Neue Kunden/Märkte“ (C.2.2.2.) zu achten, da ein neuer Online-Vertriebskanal auch eine neue Kundengruppe erschließen kann.

  8. 8.

    Die Kategorie „Neue Kundenbeziehungen“ (C.2.2.4.) beschreibt Maßnahmen, die darauf abzielen bestehende Kundenbeziehungen auszubauen oder neue Kundenbeziehungen zu schaffen. Beispiel: Lock-in-Effekte der Geschäftsmodelle von Gillette oder Nespresso. Kundenbeziehungen liefern aber auch Informationen über Veränderungen der Umwelt, Bedarf am Markt und können daher Innovation auslösen. Diese Kategorie grenzt sich durch den spezifischen Kundenbezug von der ansonsten inhaltlich nahen Kategorie „Neue Partnerschaften“ (C.2.1.3.) ab.

  9. 9.

    Die Kategorie „Neue Erlösmodelle“ (C.2.3.1.) beschreibt wie der Kunde dazu bewegt wird, für ein Wertangebot zu zahlen. Beispiel: Die einmalige Transaktion beim Kauf einer Software-CD (software as a product) wird durch ein Abo-Modell zu einem dauerhaften Einnahmestrom (software as a service). Darunter können auch sogenannte Cross-Selling-Maßnahmen fallen: Einnahmen die indirekt oder im Laufe der Zeit durch Quersubventionierung generiert werden.

  10. 10.

    Die Kategorie „Neue Kostenstrukturen“ (C.2.3.2.) erfasst Maßnahmen in Verbindung mit allen direkten und indirekten Kosten, die der Betrieb eines Unternehmens mit sich bringt. Gemeint ist die Veränderung einer etablierten Kostenstruktur, die den strategischen Umfang des Angebots bestimmt. Beispiel: Billigfluggesellschaften die konkurrenzlos günstige Flugpreise anbieten, aber für Standardleistungen (Gepäck oder Verpflegung) Zuschläge verlangen. Es geht um die Veränderung der Kostenstruktur im gesamten Geschäftsmodell, die in der Regel auf eine neue Produkt-Markt-Strategie abgestimmt ist, daher sollte an dieser Stelle genau auf die Abgrenzung zur Kategorie „Neue Kunden/Märkte“ (C.2.2.2.) geachtet werden.

4.6.2.7 Analyse und Verschriftlichung

In der Methodenliteratur folgt auf die Phase der Codierung die Durchführung einfacher und komplexer Analysen, um die Forschungsfragen im Detail zu beantworten. Der Übergang zur Verschriftlichung der Ergebnisse (sog. Forschungsbericht) sowie zur Dokumentation des Analyseprozesses im Rahmen einer Methodikbeschreibung, erfolgt dabei in der Regel fließend. In der Forschungsrealität existieren nach der Codierphase zahlreiche Optionen für weiterführende qualitative Analysen. Dabei kann fallorientiert oder kategorienorientiert vorgegangen werden, aber auch quantitative Aspekte können einbezogen werden. Entscheidend ist, die für die jeweilige Forschungsfrage geeignete Analyseart zu finden. Dazu waren im Projekt zahlreiche iterative Schritte notwendig, die sowohl zu Anpassungen des Kategoriensystems als auch zu erneuten Codierdurchläufen führten.

Für die Verschriftlichung der Ergebnisse wurden wahlweise Darstellungen des Kategoriensystems, der Kommentare codierter Segmente oder des Code-Matrix-Browsers aus MAXQDA 2020 gewählt, die die beschriebenen Zusammenhänge nachvollziehbar und mit engem Bezug zum Datenmaterial visualisierbar machen. Die identifizierten Ergebnisse und Beobachtungen wurden anschließend nach Forschungsfragen und Themen geordnet und verschriftlicht.

4.7 Reflexion und Gütekriterien

In der quantitativen Forschung herrscht überwiegend Einigkeit hinsichtlich der zentralen Gütekriterien Objektivität, Reliabilität und Validität. In der qualitativen Forschung hingegen wird diese Diskussion viel kontroverser geführt (Strübing et al., 2018, S. 4). Daher besteht die Notwendigkeit, grundsätzliche Erwägungen zu Gütekriterien der qualitativen Forschung im Allgemeinen (vgl. dazu die Arbeit der JARS-Qual Arbeitsgruppe Levitt et al., 2018; bemerkenswert dazu Pawson, 2006, S. 127–141) und der damit verbundenen qualitativen Inhaltsanalyse im Besonderen anzustellen (Kuckartz, 2018, S. 201). Zudem sollte eine Abgrenzung dieser qualitativen Kriterien gegenüber der erwähnten klassischen quantitativen Kriterien erfolgen (Lamnek & Krell, 2016, S. 141–145). Neben Ansätzen im Rahmen der Mixed-Methods-Diskussion (Creswell & Plano Clark, 2018, S. 386; Fabregues et al., 2019, S. 2) finden sich – ausschließlich qualitative – Ansätze mit vier Kriterien (Lincoln & Guba, 1985, S. 290), acht Kriterien (Tracy, 2010, S. 839) und sieben Kriterien (Steinke, 1999, S. 252). Im Kern geht es Steinke, ähnlich wie Mayring (vgl. sechs Kriterien nach Mayring, 2016, S. 145), um methodische Strenge mit einer Erweiterung auf reflektierte Subjektivität im Forschungsprozess.

Gütekriterien der qualitativen Forschung nach Steinke (vgl. Döring & Bortz, 2016, S. 112, Tabelle 3.6; nach Steinke, 1999, S. 252):

  1. (1)

    Intersubjektive Nachvollziehbarkeit: Wie gut können Außenstehende den gesamten qualitativen Forschungsprozess der Studie anhand der Studiendokumentation im Detail nachvollziehen und somit auch bewerten?

  2. (2)

    Indikation: Wie gut sind die einzelnen methodischen Entscheidungen im qualitativen Forschungsprozess der Studie hinsichtlich ihrer Angemessenheit für das Forschungsproblem bzw. den Forschungsgegenstand begründet?

  3. (3)

    Empirische Verankerung: Wie gut sind die gebildeten und/oder geprüften Hypothesen und Theorien auf der Basis der empirischen Daten begründet?

  4. (4)

    Limitation: Wie genau wird angegeben, auf welche weiteren Bedingungen (Kontexte, Fälle, Untersuchungsgruppen, Phänomene etc.) sich die Forschungsergebnisse verallgemeinern lassen bzw. inwiefern die Verallgemeinerbarkeit limitiert ist?

  5. (5)

    Reflektierte Subjektivität: Wie umfassend und überzeugend reflektieren die Forschenden ihre eigenen subjektiven Positionen und Rollen?

  6. (6)

    Kohärenz: Wie stimmig und widerspruchsfrei ist die Theorie bzw. sind die Interpretationen auf der Basis der Daten?

  7. (7)

    Relevanz: Wie groß ist der Beitrag einer grundlagenwissenschaftlichen qualitativen Studie für den wissenschaftlichen Erkenntnisfortschritt im Sinne von Gegenstandsbeschreibung und Theoriebildung (theoretische Relevanz)? Bei angewandten qualitativen Studien wie z. B. qualitativer Evaluationsforschung ist stattdessen die praktische Relevanz hervorzuheben (vgl. Döring & Bortz, 2016, S. 112, Tabelle 3.6; nach Steinke, 1999, S. 252).

Für die vorliegende Forschung überzeugte dieser Ansatz durch eine gute Umsetzbarkeit der Kriterien und dem Vorteil einer Checkliste. Die Gütekriterien wurden nicht mechanisch abgearbeitet, sondern auf die Untersuchungsbedingungen und Forschungsfragen abgestimmt, modifiziert und erweitert.

Das Vorverständnis über den Forschungsgegenstand, die Erhebungsmethoden und der Erhebungskontext wurden umfassend dokumentiert. Ebenso transparent wurde mit den Daten (Dale, 2006, S. 156), Auswertungsmethoden, Informationsquellen und Entscheidungen sowie Problemen im Forschungsprozess verfahren (Nr. 1). Die Eignung eines qualitativen Forschungsansatzes wurde genauso begründet wie die gewählte Sampling-Strategie oder die Wahl der Transkriptionsregeln (Nr. 2). Die empirische Verankerung garantierte der Einsatz der Inhaltsanalyse nach Kuckartz, einem kodifizierten, empirischen Verfahren (Nr. 3).

Gerade die Offenheit in der Datenerhebung und Datenauswertung fordert vom Forschenden ein besonderes Maß an Reflexivität (Cunliffe, 2003, S. 988). So wurde das Vorgehen bei der Datenerhebung und Analyse genau hinterfragt. Mögliche Limitationen und Implikationen für das Analyseergebnis wurden bewusst dargestellt und reflektiert (vgl. Abschnitt 6.4). Dies erfordert der gewählte qualitative Forschungsansatz, indem der Forschende selbst das eigentliche Erhebungsinstrument darstellt. Der Forscher ist damit nicht nur für Konzeption, Durchführung und Auswertung verantwortlich, sondern in seiner Person selbst ein wichtiger Faktor für Güte und Qualität der erhobenen Daten (Misoch, 2019, S. 213). Durch die detaillierte Darstellung der Untersuchungsschritte sollte die intersubjektive Nachvollziehbarkeit erhöht und mittelbar der Grad der Reflexivität dokumentiert werden (Lamnek & Krell, 2016, S. 36). Für weitere Ausführungen zu Limitationen (Nr. 4), reflektierte Subjektivität (Nr. 5) und Relevanz (Nr. 7), wird auf Abschnitt 6.4 verwiesen.

Die in der quantitativen Forschung erwarteten Gütekriterien der Objektivität, Reliabilität und Validität kennt das qualitative Forschungsparadigma nicht bzw. aufgrund der Daten und Auswertungsmethoden notwendigerweise anders (LeCompte & Goetz, 1982, S. 31–40), da die zugrundeliegenden Paradigmen nicht gegensätzlicher sein können (Sale & Brazil, 2004, S. 352). Das Abgrenzungsbedürfnis von quantitativer gegenüber qualitativer Forschung erfordert einerseits die Entwicklung eigener Begriffe für Gütekriterien (Völcker in Lüdemann & Otto, 2019, S. 81; Teddlie & Tashakkori, 2009, S. 35), andererseits wird die Adaptation der klassischen quantitativen Begriffe vertreten (Bryman, 2006; aktuelle Literaturübersicht in Fabregues et al., 2019; LeCompte & Goetz, 1982).

In Anlehnung an diesen Gedanken wurde in der vorliegenden Arbeit zusätzlich auf eine Art „externe Validität“ geachtet, indem der Untersuchungsgegenstand in seinem natürlichen Umfeld untersucht wurde (Döring & Bortz, 2016, S. 114). Die „Validität“ bei der Datenerhebung wurde durch den Pretest und die Anpassung der Erhebungsinstrumente vor Untersuchungsbeginn sichergestellt. Ferner erfolgte die Aufklärung der Interviewpartner über den Zweck der Untersuchung sowie die Zusage von Vertraulichkeit (Hussy et al., 2013, S. 279). Die Auswertung des gesamten Fallmaterials und das beschriebene, regelgeleitete Verfahren trägt zur „Validität“ der Auswertung bei. Besonders bei Daten, die mit den eigenen Vorannahmen übereinstimmen, kann die Erinnerung des interviewenden Forschers gar nicht anders als selektiv sein. Daher wurden Auswertungen von Gegenbeispielen berücksichtigt, um Verzerrungen vorzubeugen. Vor allem wurde in jedem Schritt (z. B. Kategoriendefinitionen, problematischen Codierpassagen oder Zweitcodierung) die kritische Auseinandersetzung und Diskussion mit Forscherkollegen gesucht.

Bei der Auswertung fand zudem eine Triangulation der Ergebnisse mit den zusätzlich erfassten Fallvariablen und weiteren Quellen (Statistiken, regionale Tageszeitungen und Berichten) statt (vgl. auch ähnliches Vorgehen bei Laudien & Daxböck, 2017, S. 423; Lüdemann & Otto, 2019, S. 19; Yin, 2014, S. 189). Bei der Studienvorbereitung wurde besonders darauf eingegangen, dass der Forscher mit dem zu untersuchenden Feld gut vertraut ist. Dies wirkte sich sowohl positiv auf den Feldzugang als auch auf die Tiefe und den Umfang der Expertenaussagen aus (Misoch, 2019, S. 216). Diese Vertrautheit birgt immer die Gefahr, dass das Vorwissen und die Vorkenntnisse des Forschers das Forschungsdesign und die Grundannahmen beeinflussen und damit die Ergebnisse verzerren (Misoch, 2019, S. 216). Um diesem Forscherbias zu begegnen, wurden die Flusskreuzfahrtdestination und ihre Akteure, trotz der für das Sample gewählten absichtsvollen Stichprobe, in Abschnitt 2.2. der Arbeit zusätzlich theoretisch begründet. Die Nähe zu den Aussagen der Experten wurde bei der Transkription durch die beschriebene Transkriptionsmethode gewährleistet. Auf intersubjektive Nachvollziehbarkeit wurde auch beim Codieren der einzelnen Textsegmente, durch regelmäßige Diskussionen der Kategoriendefinitionen und paraphrasierten Kommentare mit Forscherkollegen, geachtet. Zur Überprüfung der Güte des Codiervorgangs mittels zufallsbereinigter Koeffizienten wird auf die Ausführungen im Abschnitt 4.6.2.4 verwiesen.

4.8 Fallübersicht

Zur Umsetzung der für die Arbeit definierten methodischen Gütekriterien einer qualitativen Gruppenfallstudie ist die nachfolgende tabellarische Auflistung der Fälle aus Gründen der Transparenz unerlässlich (vgl. Tabelle 4.1). Darüber hinaus ermöglicht diese Übersicht durch die Fülle an sozioökonomischen Daten zu den einzelnen Fällen eine bessere Kontextualisierung der Interviewaussagen im Einzelfall. Die hier gewählte absichtsvolle Stichprobe erfordert grundsätzlich keine theoretische Begründung der Stichprobe. Es reicht aus, diejenigen Personen auszuwählen, die inhaltlich für die Forschungsfrage geeignet sind und die reichhaltige Informationen zur Forschungsfrage bieten (vgl. Abschnitt 4.3). Dennoch wurden die Flusskreuzfahrtdestination und ihre Akteure in Kapitel 2 der Arbeit zusätzlich theoretisch begründet, um einem Forscherbias entgegenzuwirken. Ein Vergleich mit der Fallübersicht zeigt, dass alle Akteursgruppen der Flusskreuzfahrtdestination aus Kapitel 2 als Interviewpartner vertreten sind. Damit erfüllen die befragten Akteursgruppen auch die Anforderungen an ein theoretisches Sampling. Die Repräsentativität des Destinationsclusters ist somit gewährleistet.

Tabelle 4.1 Übersicht der Fälle mit sozioökonomischen Daten (nach Akteursgruppen)