Die Auseinandersetzung mit bestehenden Konzepten zur Modellierung von Effectuation dient einerseits einer Annäherung an die Forschungsfrage und andererseits der methodischen Aufarbeitung der Ansätze. Die in diesem Kapitel behandelten Simulationsmodelle von Mauer et al. (2017), Welter und Kim (2018) und Eberz (2018) werden daher zunächst beschreibend dargestellt und deren Wirkungsweisen im Kontext des realen entrepreneurialen Phänomens erläutert. Darauf aufbauend erfolgen unter Abwägung des Erkenntnisnutzens die Verifikation und mathematische Formalisierung und Modellierung. Anschließend werden die Ergebnisse der bestehenden Studien kritisch evaluiert und mit den aus replizierten Implementierungen gewonnenen Ergebnissen verglichen.

3.1 Deskriptive Analyse der Modellierungs- und Simulationsansätze

Die Beschreibung der von Mauer et al. (2017), Welter und Kim (2018) und Eberz (2018) entwickelten Modelle erlaubt, deren Aufbau und Wirkungsweise transparent zu machen. Zudem wird dadurch die Grundlage geschaffen, um eine Gegenüberstellung zu ermöglichen. Die aus der deskriptiven Analyse gewonnenen Erkenntnisse dienen der Entwicklung eines eigenen generalisierten und verbesserten Ansatzes.

3.1.1 Simulationsmodell nach Mauer et al. (2017)

Mauer et al. (2017) untersuchen in ihrer Arbeit die Rahmenbedingungen zweier entrepreneurialer Suchprozesse im Kontext von Isotropie, Ziel-Ambiguität und Unvorhersagbarkeit mit Hilfe von Agent Based Modeling. Sie ermitteln und vergleichen die Leistungsfähigkeit steuerungs- und vorhersagebasierter Suchalgorithmen im unternehmerischen Problemraum. Ein vohersagebasierter Suchprozess repräsentiert diesbezüglich das Konzept kausaler Logik, während ein steuerungsbasierter Suchprozess das Konzept von Effectuation widerspiegelt. Ziel der Entwicklung des Modells ist die Verbesserung des Entrepreneurship-Theoriengebildes und die nuancierte Darstellung der Beziehung zwischen entrepreneurialer Suche und Umgebung.

Die in Mauer et al. (2017) angestrebte Theorienbildung basiert auf den Konzepten der stochastischen Prozessmodellierung und der agentenbasierten Simulation. Als Grundlage für die Entwicklung wurden insbesondere die Arbeiten von Davis et al. (2009), Gilbert und Troitzsch (2005) und Gilbert (2007) genutzt.

Davis et al. (2009) behandeln vorrangig die Zusammenhänge zwischen Struktur einer Organisation, deren Leistungsfähigkeit und der vorhandenen Umgebung. Die Autoren fanden heraus, dass mit wachsender Unvorhersagbarkeit die optimale Struktur, im Sinne der bestmöglichen Reaktion auf die Umgebung unter Einschränkung der möglichen Aktionen, einer Unternehmung abnimmt. Um diesen Zusammenhang zu untersuchen, wurden Methoden der stochastischen Prozessmodellierung genutzt. Die Wahl dieser Modellierungsform liegt unter anderem in der Abbildbarkeit von improvisierten Aktionen, unternehmerischen Gelegenheiten und den Umgebungsdimensionen Geschwindigkeit und Ambiguität begründet. Teilaspekte des Modellierungsansatzes finden auch in Mauer et al. (2017) Verwendung.

Gilbert und Troitzsch (2005) stellen ein Grundlagenwerk zur Verfügung, in dem sie den Zusammenhang zwischen Sozialforschung und Simulation herausstellen. Darüber hinaus diskutieren sie eine Reihe verschiedener Simulationsmodelle, die zum wissenschaftlichen Erkenntnisgewinn in der Sozialforschung angewendet werden können.

In Gilbert (2007) wird die Funktionsweise und der Aufbau agentenbasierter Modelle vorgestellt. Ein Großteil der Agent Based Models wird laut Gilbert als agent automata modelliert. Dabei ist

$$\begin{aligned} \mathfrak {A} \sim (S,L) \end{aligned}$$

als Agenten-Automat, bestehend aus den zeitlich geordneten Zuständen in S und Regeln L, definiert, wobei

$$\begin{aligned} S = (S_t) \text { f}{\ddot{\text {u}}}{\text {r }} t = 1, \ldots , n \end{aligned}$$

mit

$$\begin{aligned} S\, \hat{=}\,&\text {Folge von Zust}{\ddot{\text {a}}}{\text {nden}}\ {\ddot{\text {u}}}{\text {ber die Zeit aus einer Menge diskreter Zust}}{\ddot{\text {a}}}{\text {nde}}\\&\text {der M}{\ddot{\text {a}}}{\text {chtigkeit}}\ n\\ S_t\, \hat{=}\,&\text {Zustand zum Zeitpunkt}\ t \end{aligned}$$

und

$$\begin{aligned} L: (S_{t},I_{t}) \rightarrow S_{t+1} \end{aligned}$$

mit

$$\begin{aligned} L\, \hat{=}\,&\text {Regel, die eine Zustands}{\ddot{\text {a}}}{\text {nderung mit}}\ {\ddot{\text {A}}}{\text {nderung der Zeit von }}\\&t \rightarrow t+1\ {\text {bewirken kann}}\\ I_t\, \hat{=}\,&\text {Input eines anderen Automaten oder externen Stimulus zum }\\&\text {Zeitpunkt } t \end{aligned}$$

gilt.

Mauer et al. (2017) machen sich die Erkenntnisse aus den Arbeiten zur stochastischen Prozessmodellierung und Gestaltung von agentenbasierten Modellen zu Nutze. Dabei beziehen sie sich auch auf exemplarische Studien von Almirall und Casadesus-Masanell (2010) oder Keyhani et al. (2014) aus dem Bereich der Strategie- und Entrepreneurship-Forschung, die Simulationsmethoden anwenden. Diese werden an dieser Stelle nicht näher beschrieben.

Bereits Davis et al. (2007) geben in ihren Ausführungen Hinweise, wie die Anwendung von Simulationsmodellen zur Theorienbildung beitragen kann. Dabei gehen sie auf den Auswahlprozess des für die Theorienentwicklung geeigneten Simulationsmodells ein und empfehlen Entscheidungskriterien. Mauer et al. (2017) folgen bei der Entwicklung und Vorstellung des Simulationsmodells nun dem durch Davis et al. (2007) beschriebenen Vorgehen, klammern allerdings die abschließende Validierung der eigenen Ergebnisse mit empirischen Daten anderer Untersuchungen aus. Die Auswahlschritte für ein geeignetes Simulationsmodell und die Verwendungsaspekte dessen sind nach Davis et al. (2007) folgende:

  • Bestimmung der Forschungsfrage

  • Identifizierung eines einfachen Theoriengerüsts

  • Wahl eines Simulationsansatzes, der die Forschungsfrage adressiert

  • Entwicklung der rechnerischen Darstellung des Ansatzes

  • Verifizierung der rechnerischen Darstellung durch Überprüfung auf Erfüllung der Anforderungen

  • Experimente zum Zweck der Theorienbildung

  • Validierung der Simulationsergebnisse mit empirischen Daten

Aufbauend auf den Erkenntnissen der verwendeten Literatur haben Mauer et al. (2017) für die Simulation ein agentenbasiertes Modell entwickelt, das eine unternehmerische Aufgabe lösen soll. Die Agenten im Simulationsmodell entwickeln eine Produkt- oder Dienstleistungsidee bis zur Bereitstellung im Konsumentenmarkt und werden durch den Beobachter anhand des sogenannten Market-Fits bewertet. Das Modell wird im zeitlichen Bereich zwischen Auftreten einer grundlegenden Idee als mentale oder theoretische Repräsentation eines Wertes für eine Unternehmung und dem tatsächlichen Markteintritt angewandt.

Die Überlegungen zu den im Simulationsmodell dargestellten Produkt- und Dienstleistungsideen fußen auf den Vorschlägen von Csaszar und Levinthal (2016). In diesem Zusammenhang ist eine mentale Repräsentation als geistiges Modell der Realität eines Individuums zum Treffen von Vorhersagen über die Realität zu verstehen. Diese werden durch N Strategiemöglichkeiten modelliert. Als Beispiel für eine mentale Repräsentation mit \(N = 3\) Strategiedimensionen verwenden die Autoren ein Automobil. Als Vektor ausgedrückt bedeutet die Konfiguration (1, 0, 1) beispielsweise, dass das Automobil ein großes Chassis, einen kleinen Motor und dicke Wände haben könnte.

Das Konzept der mentalen Repräsentation mit verschiedenen Strategiemöglichkeiten übertragen Mauer et al. (2017) auf ihr Simulationsmodell zur Darstellung von Artefakten, die sich als Produkte oder Dienstleistungen mit verschiedenen Eigenschaften manifestieren können. Mathematisch werden diese als \({}n\)-Tupel modelliert und als Vektor mit \({}n\) Komponenten dargestellt. Eine Komponente des Vektors repräsentiert jeweils eine Produkteigenschaft. Ein \({}n\)-dimensionaler Produktvektorraum definiert dabei alle möglichen Produkte, die mit \({}n\) Komponenten umsetzbar sind. Jede Komponente kann \({}k\) verschiedene Werte annehmen. Mauer et al. (2017) definieren für die Komponenten \({}k = 2\) Ausprägungen mit den Werten 0 und 1. Eine beispielhafte Anwendung dieses Modellierungsansatzes ist für den binären Fall von \({}k=2\) für sogenannte Gelegenheitsvektoren zur Umgebungsmodellierung auch in Davis et al. (2009) zu finden. Es ergeben sich maximal \(k^n\) mögliche Konfigurationen.

Im Simulationsmodell von Mauer et al. (2017) erhalten die Komponenten des Artefakts, die zu Beginn der Simulation noch nicht konkret definiert sind, nun den Wert 9 und sind somit flexibel. Die Anzahl m der flexiblen Komponenten zu Beginn der Simulation variiert je nach verwendeter Suchstrategie (steuerungs- vs. vorhersagebasiert), wobei \(m\ \le \ n\). Die Anwendung flexibler Vektorkomponenten wird ebenfalls in Davis et al. (2009) erläutert, wobei diese als improvisierte Aktionen operationalisiert und mit einem ? notiert werden. Improvisierte Aktionen stellen die Fähigkeit einer Organisation dar, eine unternehmerische Gelegenheit zu einem bestimmten Zeitpunkt zu beeinflussen, während \(n-m\) Komponenten eines Gelegenheitsvektors die vor Ergreifung der Gelegenheit fixen Entscheidungen repräsentieren.

Im Modell von Mauer et al. (2017) werden zwei Arten von Agenten beschrieben: Anbieter-Agenten und Konsumenten-Agenten. Konsumenten-Agenten sind in der Form passiv, dass sie jeweils einen Artefakt-Vektor versinnbildlichen, dessen Komponenten nicht durch Interaktion mit anderen Agenten geändert werden können und der keine flexiblen Komponenten enthält.

Die Verteilung der Nachfragevektoren der Kosumenten im Produktvektorraum stellt die Payoff-Landschaft im Sinne der Nachfrage dar. Mauer et al. (2017, S. 244) beschreiben diese als „[...] demand vectors [which] reflect the current universe of consumer preferences at each point in time, thereby forming the payoff landscape.“. Die Payoff-Landschaft wird in diesem Zusammenhang mit einer taste distribution verglichen, wie sie Carpenter und Nakamoto (1989) erläutern. In Abbildung 3.1 ist eine beispielhafte Payoff-Landschaft, die durch zwei Artefakt-Komponenten geformt wird, dargestellt.

Abb. 3.1
figure 1

Beispielhafte Payoff-Landschaft für einen Artefakt-Vektor der Konsumenten mit \({}n=2\) Komponenten und \({}k \in [0,10]\) Ausprägungen (mod. nach Carpenter und Nakamoto (1989))

Die Landschaft stellt sich in der Ebene über die beiden Artefakt-Komponenten als Verteilung der möglichen Komponenten-Kombinationen der Konsumenten dar. Während Carpenter und Nakamoto (1989) die dritte Dimension der Landschaft als Marktwert der jeweiligen Komponenten-Kombinationen verstehen, definieren Mauer et al. (2017) diesen Funktionswert als aggregierte Konsumenten-Präferenzen und drücken damit jeweils die Anzahl der einzelnen tatsächlich nachgefragten Komponenten aus. Das Konzept der Landschaft lässt sich auf das bereits erwähnte Automobilbeispiel übertragen. Hierbei stellen die einzelnen Vektorkomponenten der vektorisierten mentalen Repräsentation die jeweiligen Ausprägungen der Produkteigenschaften dar. Beispielsweise bildet die erste Vektorkomponente des Konfigurations-Vektors (1, 0, 1) die Produktausprägung Chassis-Größe ab. In diesem Fall steht die 1 für ein großes Chassis (während eine 0 für ein kleines Chassis stehen würde). Da in diesem Beispiel die Vektorkomponenten jeweils zwei verschiedene Werte annehmen können (0 oder 1) und insgesamt drei verschiedene Produkteigenschaften zur Verfügung stehen, existieren 8 verschiedene Produktkonfigurationen für das Automobil. Diesen Konfigurationen, die Punkte im Raum darstellen, werden Funktionswerte, in Form der Payoffs, zugeordnet. Die Funktionswerte wiederum drücken aus, wie stark die Nachfrage einer bestimmten Produktkonfiguration im Vergleich zu anderen Produktkonfigurationen ist.

Carpenter und Nakamoto (1989) beziehen das Konzept der taste distribution auf einen einzelnen Konsumenten hinsichtlich eines möglichen Produktes. Mauer et al. (2017) hingegen verwenden die taste distribution als Payoff-Landschaft aller Konsumenten und ihrer tatsächlich nachgefragten Produkte (Artefakte). Abbildung 3.1 zeigt, dass die Werte der Komponenten aus einem kontinuierlichen Bereich stammen. Mauer et al. (2017) verwenden in ihrem Modell diskrete Werte für die möglichen Komponenten. Abbildung 3.1, wie sie in der Form auch von Mauer et al. (2017) zur Veranschaulichung genutzt wird, ist für die Darstellung ihres Modellierungsansatzes, mit diskreten Werten für die Komponenten, daher eher ungeeignet.

Für die Modellierung der Angebotsseite verwenden Mauer et al. (2017), wie bereits anfangs erwähnt, Anbieter-Agenten, die Artefakte mittels einer Steuerungs- bzw. Vorhersage-Strategie entwickeln. Anbieter-Agenten, die einer vorhersagebasierten Strategie folgen, beobachten zu Beginn der Simulation stichprobenartig Nachfragevektoren der Konsumenten-Agenten und sammeln so Informationen zu Präferenzen der Nachfrager. Ein Optimierungsalgorithmus, der lediglich schematisch von Mauer et al. (2017) beschrieben wird, bestimmt dann die besten Werte für die flexiblen Komponenten des Artefakts mittels Maximierung des Market-Fits in Bezug auf die stichprobenartig erfasste Nachfrage. Nach Austausch der flexiblen Komponenten des Artefakt-Vektors mit den ermittelten bestmöglichen Werten, endet der Simulationsprozess mit der Berechnung des Market-Fits.

Der steuerungsbasierte Anbieter-Agent vergleicht seinen ihm zugehörigen Artefakt-Vektor dagegen komponentenweise mit Artefakt-Vektoren anderer passiver steuerungsbasierter Anbieter-Agenten, die ihm zufällig als Kontaktnetzwerk zugeordnet wurden und potentielle Stakeholder repräsentieren. Besitzt der Vektor des passiven steuerungsbasierten Anbieter-Agenten einen festen Wert in einer Komponente, ersetzt der aktive steuerungsbasierte Anbieter-Agent den Wert an dieser Stelle in seinem Artefakt-Vektor, sofern dieser noch flexibel ist. Ist der Wert einer Komponente an der gleichen Stelle des Vektors der beiden Agenten flexibel, muss der aktive steuerungsbasierte Anbieter-Agent mit mindestens einem weiteren passiven steuerungsbasierten Agenten den Artefakt-Vektor abgleichen, um die flexible Komponente mit einem fixen Wert zu versehen. Wie die Reihenfolge festgelegt wird, in der der sequentielle Abgleich mit den passiven steuerungsbasierten Agenten geschieht, ist nicht näher spezifiziert. Auch wenn Mauer et al. (2017) es nicht explizit erläutern, folgt dieses Vorgehen den Ausführungen zur Erreichung von Vereinbarungen mittels effektuativem Vorgehen von Sarasvathy (2009, S. 15). Der Simulationsprozess ist beendet, wenn der Artefakt-Vektor des steuerungsbasierten Agenten keine flexiblen Komponenten mehr enthält. Danach wird der Market-Fit evaluiert.

Der Market-Fit stellt im Modell von Mauer et al. (2017) das Leistungsmaß dar und dient der Bestimmung der Leistungsfähigkeit der steuerungs- bzw. vorhersagebasierten Suchalgorithmen in verschiedenen Kontexten. Die Gesamtheit der Nachfragevektoren der Konsumenten bildet die Marktnachfrage ab. Nachfragevektoren sind im gleichen Produktvektorraum angesiedelt wie die Artefakt-Vektoren der Anbieter. Nachfragevektoren besitzen lediglich Komponenten mit fixen Werten (0 und 1), die sich jedoch über die Zeit ändern können (0 wird zu 1 bzw. 1 wird zu 0). Zur Bestimmung der Leistungsfähigkeit im Sinne des Market-Fits wird die Kongruenz des Artefakt-Vektors des Anbieter-Agenten mit der Marktnachfrage gemessen. Mauer et al. (2017, S. 244) definieren Market-Fit konkret „[...] as the percentage of consumer agents whose demand vector components show the same values as the product vector components, averaged over all vector dimensions.“. Da Mauer et al. (2017) keine formale Berechnungsvorschrift des Market-Fits bereitstellen, soll im Folgenden anhand eines Beispiels die Berechnung des Market-Fits nachvollzogen werden. Im Anschluss wird darauf aufbauend der Market-Fit mathematisch modelliert.

Beispiel 3.1

(Market-Fit).

Es gebe \({}n= 2 \) Komponenten und \({}k = 2\) Ausprägungen.

Es wird angenommen, dass neun Nachfragevektoren der Konsumenten-Agenten existieren. Auf Seiten der Anbieter-Agenten gibt es insgesamt 12 AngebotsvektorenFootnote 1. Diese werden zu Vergleichszwecken in 4 Gruppen á 3 Angebotsvektoren unterteilt. Die Erstellung der Vektoren erfolgt willkürlich.

Konkret wird die Menge Y der Nachfragevektoren mit folgender Zusammenstellung der Elemente untersucht:

$$\begin{aligned} Y = \{(0,0);(0,0);(0,1);(0,1);(1,0);(1,0);(1,1);(1,1);(1,1)\} \text {.} \end{aligned}$$

Um die Payoff-Landschaft für Y zu erstellen, muss zunächst ermittelt werden, welchen Anteil jede Vektorkomponentenkombination aus der \(k^n\)-elementigen Menge aller möglichen Vektorkonfigurationen hat. Es ergeben sich die möglichen Kombinationen (0, 0); (0, 1); (1, 0); (1, 1). Für die Berechnung des Payoffs einer möglichen Kombination wird zunächst die Ausprägung jeder Komponente mit den Ausprägungen der korrespondierenden Komponenten der Nachfragevektoren verglichen. Anschließend wird für jede Komponente die Anzahl der Ausprägungen der Nachfragevektoren bestimmt, die den gleichen Wert wie die Ausprägung der Komponente der möglichen Kombination aufweist. Die für die jeweiligen Komponenten entstandenen Anzahlen werden aufaddiert, durch die Gesamtzahl der Nachfragevektoren dividiert und über die Anzahl der Komponenten gemittelt. Es ergeben sich für die einzelnen Kombinationen die gemittelten Anteile:

$$\begin{aligned} (0,0)&: \frac{\frac{4}{9} + \frac{4}{9}}{2} = \frac{4}{9}\\ (0,1)&: \frac{\frac{4}{9} + \frac{5}{9}}{2} = \frac{1}{2}\\ (1,0)&: \frac{\frac{5}{9} + \frac{4}{9}}{2} = \frac{1}{2}\\ (1,1)&: \frac{\frac{5}{9} + \frac{5}{9}}{2} = \frac{5}{9} \text {.} \end{aligned}$$

Auf Angebotsseite werden zu Vergleichszwecken vier unterschiedliche Fälle konstruiert, die jeweils drei Angebotsvektoren der Anbieter-Agenten enthalten. Diese setzen sich wie folgt zusammen:

$$\begin{aligned} \begin{array}{cccc} {\textbf {Fall 1}} &{} {\textbf {Fall 2}} &{} {\textbf {Fall 3}} &{} {\textbf {Fall 4}}\\ (0,0) &{} (1,1) &{} (0,0) &{} (0,0)\\ (1,1) &{} (1,1) &{} (0,0) &{} (1,0)\\ (1,1) &{} (1,1) &{} (0,0) &{} (1,0)\\ \end{array} \end{aligned}$$

Aufbauend auf den Ausführungen von Mauer et al. (2017) wird der Market-Fit als Payoff derjenigen Vektorkombination der Nachfragevektoren definiert, die mit dem Angebotsvektor übereinstimmt. Der mittlere Market-Fit beschreibt den durchschnittlichen Market-Fit der Angebots-Agenten pro Fall. Im Beispiel errechnen sich für

$$\begin{aligned} {\textbf {Fall 1}} \text {: }&\frac{\frac{4}{9} + \frac{5}{9} + \frac{5}{9}}{3} = \frac{14}{27}\\ {\textbf {Fall 2}} \text {: }&\frac{\frac{5}{9} + \frac{5}{9} + \frac{5}{9}}{3} = \frac{5}{9}\\ {\textbf {Fall 3}} \text {: }&\frac{\frac{4}{9} + \frac{4}{9} + \frac{4}{9}}{3} = \frac{4}{9}\\ {\textbf {Fall 4}} \text {: }&\frac{\frac{4}{9} + \frac{1}{2} + \frac{1}{2}}{3} = \frac{13}{27} \end{aligned}$$

die verschiedenen mittleren Market-Fits.

Es zeigt sich, dass in Fall 2 ein Market-Fit von \(\frac{5}{9}\) erreicht wird. Dabei hatten alle drei Angebots-Agenten einen Angebotsvektor von (1, 1). Auf Seiten der Nachfrage-Agenten war diese Vektorkomponentenkombination die am meisten nachgefragte Kombination. Folglich ergibt sich für die Angebotsvektoren aus Fall 2 der mittlere Market-Fit von \(\frac{5}{9}\). In Fall 3 hingegen ergibt sich ein mittlerer Market-Fit von \(\frac{4}{9}\), da alle drei Angebots-Vektoren einen Wert von (0, 0) aufweisen und dementsprechend der Vektorkomponentenkombination der Nachfrage-Agenten mit dem geringsten Payoff entsprechen.

Definition 3.2 (Market-Fit)

Sei f ein beliebiger Vektor \((f_1, \ldots , f_n)\, {mit}\, f_i \in \{1, \ldots , {}k\}\) und \(i = 1, \ldots , {}n\) und

$$\begin{aligned} (\textit{Y})&\ldots {Die}\ Menge\ aller\ {Nachfragevektoren.} \end{aligned}$$

Somit ergibt zur Berechnung des Payoffs \({}po_f\)

$$\begin{aligned} po_{f} = \frac{1}{|Y|} {\sum \limits _{y \in Y}} \frac{1}{n} {\sum \limits _{j = 1}^{n}} {\mathbbm {1}}_{\{f_j = y_j\}}. \end{aligned}$$
(3.1)

Der Market-Fit \({}mf_a\) eines Angebotsvektors \({}a \in {}A\) aus der Menge \({}A\) der ermittelten Angebotsvektoren ist definiert mit

$$\begin{aligned} {}mf_a := {}po_f |_{f = {}a} \text { .} \end{aligned}$$
(3.2)

Daraus folgt die Rechenvorschrift des mittleren Market-Fits \({}\overline{mf}\) mit

$$\begin{aligned} {}\overline{mf} = \frac{1}{|{}A|} \cdot \sum \limits _{{}a \in {}A} {}mf_a \text { .} \end{aligned}$$
(3.3)

Zur Evaluierung der vorhersage- und steuerungsbasierten Suchalgorithmen in unterschiedlichen Kontexten operationalisieren Mauer et al. (2017) den unternehmerischen Problemraum, der unter anderem von Dew und Sarasvathy (2007) beschrieben wurde. Er setzt sich aus den Umgebungsvariablen Ungewissheit, Isotropie und Ziel-Ambiguität zusammen. Diese Elemente des Problemraums können im Grad ihres Auftretens im Modell von Mauer et al. (2017) gesteuert werden.

Ungewissheit, wie sie in Abschnitt 2.2 behandelt wurde, kann hinsichtlich der Marktnachfrage im Simulationsmodell von a-priori bzw. empirisch bis hin zu einem ähnlichen Konzept von Ungewissheit, wie es Knight (1921) formulierte, variiert werden. Dabei folgen Mauer et al. (2017) der Arbeit von Davis et al. (2009) und Dess und Beard (1984), indem sie das Konzept der Umgebungsdynamik für die Modellierung von Ungewissheit nutzen. Die Verteilungen für die Nachfrage von Produkteigenschaften können demnach stabil sein und somit die Abwesenheit von Ungewissheit repräsentieren oder sich im Zeitverlauf ändern und somit den Grad des Vorhandenseins von Ungewissheit widerspiegeln. Die Operationalisierung der Isotropie erfolgt dadurch, dass mehr oder weniger Produkteigenschaften in der Marktnachfrage gleichverteilt werden. Im Falle des Automobil-Beispiels könnte hinsichtlich der Vektorkomponente Chassis-Größe, eine Verteilung in der Marktnachfrage von 0/100 bedeuten, dass alle Nachfrage-Agenten die Produktausprägung großes Chassis nachfragen und kein Nachfrage-Agent die Produktausprägung kleines Chassis.

Ziel-Ambiguität wird durch die Variierung der Anzahl der undefinierten Komponenten des Artefakt-Vektors operationalisiert.

Um die steuerungs- und vorhersagebasierten Suchprozesse auf ihre Leistungsfähigkeit hin zu vergleichen, führen Mauer et al. (2017) drei Simulationsexperimente durch. Dabei gibt jedes Experiment Auskunft über die Auswirkung der jeweiligen Variable aus dem Problemraum (Ungewissheit, Isotropie, Ziel-Ambiguität) auf den durchschnittlichen Market-Fit hinsichtlich der zu vergleichenden Strategien.

Mittels Monte-Carlo-Simulationstechnik wurde jede Parameterkonfiguration mit jeweils unterschiedlich initialisierten Werten des Artefakt-Vektors mehrmals durchlaufen, um statistische Fehler zu vermeiden. Pro Experiment wurden zwischen 50 und 170 Durchläufe ausgeführt, die insgesamt 63.000 bis 214.000 Datenpunkte zur Analyse erzeugten. Ein Datenpunkt ist diesbezüglich eine Datenauslesung aller Parameter eines Agenten. In einem einzelnen Simulationsdurchlauf ist das mittlere Market-Fit-Ergebnis für eine Parameter-Konfiguration die Aggregation aller Market-Fit-Ergebnisse der einzelnen steuerungs- bzw. vorhersagebasierten Agenten. Folgende umgebungsrelevanten Kennzahlen des Simulationsmodells von Mauer et al. (2017) sind darüber hinaus bekannt:

  • Gesamtzahl der Agenten: 100, davon:

    • 20 vorhersagebasierte Agenten

    • 20 steuerungsbasierte Agenten

    • 60 Konsumenten-Agenten

  • Anzahl der Vektorkomponenten \({}n\): 5

  • Anzahl der flexiblen Artefakt-Vektorkomponenten m: 0\(,\ldots ,\)4

  • Anzahl der möglichen Ausprägungen pro Artefakt-Vektorkomponente \({}k\): 2\(,\ldots ,\)6

Artefakt-Vektoren werden entsprechend einer zuvor definierten Verteilung in der Payoff-Landschaft erstellt. Die Verteilung ist definiert durch die Anzahl der möglichen Werte (\({}k\)), die jede Vektor-Komponente annehmen kann, und durch die Verteilung dieser Werte. Beispielsweise wäre es möglich, dass bei \({}k=2\) 80 % der Agenten an der \(i-\)ten Stelle des Vektors den Wert 0 und 20 % den Wert 1 haben. Artefakt-Vektoren werden für \({}k=2\) an der \(i-\)ten Stelle identisch verteilt initialisiert. Um eine Verteilung für \({}k > 2\) zu modellieren, betrachten Mauer et al. (2017) die Anzahl einer ausgewählten Ausprägung über alle Artefaktvektoren als veränderbaren Parameter zur Steuerung des Anteils an der Gesamtverteilung. Nach Festlegung des Anteils dieser Ausprägung an der Verteilung wird der verbleibende Anteil der Marktnachfrage auf die restlichen \({}k-1\) Ausprägungen gleichverteilt. Die flexiblen Komponenten der Artefakt-Vektoren werden im Experiment mit Hilfe des steuerungsbasierten bzw. vorhersagebasierten Suchalgorithmus in fixe Werte umgewandelt.

Die Ergebnisse der Simulation zeigen die Auswirkungen von Isotropie, Ziel-Ambiguität und Ungewissheit auf die Marktnachfrage. Das Ausmaß der Isotropie wird mittels \({}k\) mit \({}k \ge 1\) sowie der Nachfragekonzentration \({}c\) gesteuert. In diesem Zusammenhang beschreibt Isotropie den Umstand, dass zum Zeitpunkt einer Entscheidungssituation nicht vollständig klar ist, welche Informationen der Umgebung zum Treffen einer guten Entscheidung relevant sind. Mauer et al. (2017) operationalisieren Isotropie durch Vielfalt in der Marktnachfrage. Die Nachfragekonzentration \({}c\) gibt an, ob eine bestimmte Komponente im Vergleich zu anderen Komponenten durchschnittlich mehr, weniger oder gleich nachgefragt ist. Je größer der Anteil einer Komponente im Vergleich zum Durchschnitt ist, desto geringer variiert die Marktnachfrage \({}v\). Die Variation in der Marktnachfrage wird berechnet durch:

$$\begin{aligned} {}v = \frac{{}k}{{}c} \text { mit } {}v \in [{}k; k^2] \text { und } {}c \in \left[ \frac{1}{{}k};1\right] \end{aligned}$$

Die Dominanz in der Marktnachfrage \({}d\) wird folgendermaßen berechnet:

$$\begin{aligned} {}d = {}c \cdot {}k \text { mit } {}d \in [1; {}k] \end{aligned}$$

Der Ablauf der Simulation von Mauer et al. (2017) wird exemplarisch in Form von Pseudo-Code in dargestellt. In der Simulation von Mauer et al. (2017) wird die Modellierung von Ungewissheit durch Veränderung der initialen Verteilung der Vektor-Komponenten, nachdem beide Strategien das Artefakt finalisiert haben, erreicht und wird als Market-Shift bezeichnet. Beispielsweise könnte in einem Markt mit 100 Nachfragern initial eine 80/20 Verteilung zwischen zwei Ausprägungen (\({}k=2\)) einer Artefaktkomponente vorherrschen. Diese Verteilung könnte sich im Verlauf zu einer 60/40 oder 30/70 Verteilung ändern. Steuerungsbasierte Agenten erzielen einen besseren Market-Fit im Vergleich zu vorhersagebasierten Agenten, wenn sich der Market-Shift vergrößert. Dieser Effekt tritt jedoch erst ab einem bestimmten Market-Shift-Wert auf. Je früher die Änderung der Verteilung der Marktnachfrage im Simulationsablauf durchgeführt wird, umso höher ist der erreichte Market-Fit des steuerungsbasierten Agenten. Mauer et al. (2017) widersprechen sich jedoch, was den Zeitpunkt des Market-Shifts im Simulationsablauf angeht. Einerseits schreiben sie: „In our experiments, the market shift occurred after both strategies had terminated finalizing the product“. Auf der anderen Seite erläutern sie, dass „the timing of a market shift is important, which is why we investigate by manipulating it in the simulation“.

figure a

Bei der Untersuchung der Auswirkungen der Ziel-Ambiguität auf die Marktnachfrage und dementsprechend der Bestimmung des Market-Fits, haben steuerungsbasierte Agenten bei einer moderaten Ziel-Ambiguitäts-Konfiguration (\(1 \le m \le 2\)) eine stabile Leistungsfähigkeit, die (linear) mit Anstieg des Market-Shifts abfällt. Vorhersagebasierte Agenten zeigen bei fallenden Werten für m eine stärkere Leistungsfähigkeit bei geringem Market-Shift und eine schwächere Leistung bei großem Market-Shift. Mauer et al. (2017) lassen offen, weshalb eine Veränderung des Market-Shifts im dritten Experiment durchgeführt wurde, obwohl es an anderer Stelle der Arbeit heißt, dass „[e]ach experiment examines the effect of one variable on the average market fit of the two strategies being compared.“.

Eine kritische Evaluation der hier zusammengefassten Ergebnisse erfolgt in Abschnitt 3.2.1.

3.1.2 Simulationsmodell nach Welter und Kim (2018)

Welter und Kim (2018) untersuchen in ihrer Arbeit Effectuation mit Hilfe eines NK-Modellansatzes. Sie adressieren damit die Fragestellung, in welchem Kontext Effectuation anwendbar und wirksam ist. Dabei schließen die Autoren an die Erkenntnisse von Welter et al. (2016) an, die die Potentiale in der Theorienbildung von Effectuation thematisieren. Insbesondere zeigen Welter und Kim (2018) auf, dass die bisherige Effectuation-Forschung, wie beispielsweise Dew, Read et al. (2009), den Unterschied zwischen Risiko- und ungewissen Kontexten nicht ausreichend klar herausstellt. Darauf aufbauend versuchen Welter und Kim (2018) die Frage zu beantworten, wie wirksam Effectuation im Vergleich zu kausaler Logik in Risiko- und ungewissen Kontexten ist.

Zur Beantwortung der Frage bemühen Welter und Kim (2018) ein agentenbasiertes Simulationsmodell, das die Leistungsfähigkeit der Theorien Effectuation und Causation mittels einer Fitness-Landschaft untersucht. Zur Modellierung von Risiko- und ungewissen Entscheidungs-Kontexten manipulieren die Autoren die Fitness-Landschaft. Damit erreichen Welter und Kim (2018) eine Beeinflussung des Entscheidungsverhaltens von Entrepreneuren hinsichtlich der Möglichkeit die Zukunft vorherzusagen. Zusammenfassend bietet der Ansatz die Möglichkeit:

  • den Grad des Einflusses von Risiko und Ungewissheit zu verändern,

  • die Leistungsfähigkeit von Effectuation und Causation in den genannten Kontexten zu bewerten und

  • den Planungsgrad des agentenbasierten Entrepreneurs zu steuern.

Welter und Kim (2018) definieren die Konzepte Risiko und Ungewissheit in Vorbereitung auf die Untersuchung. Ergänzend zu den Ausführungen aus Abschnitt 2.2 werden Risiko und Ungewissheit als zwei entgegengesetzte Enden eines Kontinuums (Edelman & Yli-Renko, 2010) bzw. Grade von Risiko und Ungewissheit beschrieben (Brinckmann et al., 2010).

Als Simulationsansatz für die Untersuchung der Leistungsfähigkeit von Effectuation und kausaler Logik in Risiko- und ungewissen Kontexten wird ein NK-Modell verwendet, das auf den Ausführungen von Levinthal (1997) beruht und bereits in der Management-Forschung vielfach angewendet wird, wie beispielsweise von Ganco und Agarwal (2009), Rivkin (2000) und Lenox et al. (2006). Die Verwendung dieses Ansatzes trägt nach Auffassung von Welter und Kim (2018) dazu bei, folgende Herausforderung der bisherigen Effectuation-Forschung zu überwinden:

  • Empirische Messbarkeit von Risiko und Ungewissheit

  • Mangel an Bereitstellung leistungsbezogener Daten

  • Replizierbarkeit von Entscheidungsverhalten.

Die Fitness-Landschaft von Welter und Kim (2018) ist durch verschiedene lokale Maxima gekennzeichnet, die sich um ein globales Maximum verteilen. Eine Positionierung des Agenten in der Landschaft drückt demzufolge den entsprechenden Leistungswert aus. Lokale Maxima repräsentieren eine hohe Leistung relativ zur Umgebung.

Die Messung der Leistungsfähigkeit bezieht sich auf Unternehmen, die den Untersuchungsgegenstand darstellen und als Agenten im Simulationsmodell handeln. Die Unternehmen werden nach Levinthal (1997) als eine Menge von Entscheidungen modelliert, die die Mächtigkeit \({}N\) hat. Jede Entscheidung ist von binärem Charakter, was sich in Rivkin (2000) als sinnvoll erwiesen hat. Folglich wird ein Unternehmen durch eine \({}N\)-dimensionale Binärkette repräsentiert als \({}S = \{s_1, s_2, \cdots s_{N-1}, s_N\}, {}s_j \in \{0,1\}\). Es ergeben sich für ein Unternehmen \(2^N\) mögliche Entscheidungskonfigurationen.

Das von Welter und Kim (2018) vorgestellte Simulationsmodell wendet den NK-Modellierungsansatz von Kauffman (1993) und Levinthal (1997) zur Darstellung der Fitness-Landschaft an. Diese bildet jede mögliche Entscheidungskette \({}S\) auf einem Leistungswert \({}W(S)\) ab (Siggelkow & Rivkin, 2006). Zur Berechnung des Leistungswertes \({}W(S)\) einer Entscheidungskette \({}S\) eines Unternehmens wird der Mittelwert der jeweiligen Leistungen \(w(s_j)\) der einzelnen Entscheidungen \({}s_j\) einer Entscheidungskette \({}S\) gebildet. Es ergibt sich:

$$\begin{aligned} {}W(S) = \frac{1}{{}N} \sum _{j=1}^{N}w(s_{j}) \text { .} \end{aligned}$$
(3.4)

In diesem Zusammenhang kann \(w(s_j)\) mit \(j \in {1,2,\ldots ,{}N}\) als Beitrag verstanden werden, den \({}s_j\) an der Leistung der Entscheidungskonfiguration \({}S\) hat. Dieser Beitrag von \({}s_j\) kann unter Umständen auch von anderen Entscheidungen der Entscheidungskonfiguration \({}S\) abhängen. Dies wird durch \({}w(s_j,s_{-j})\) symbolisiert, wobei \({}s_{-j}\) als Bezeichner für alle Entscheidungen aus \({}S\) steht, die ebenfalls Einfluss auf den Beitrag von \({}s_j\) haben.

Im NK-Modell parametrisiert \({}K\) den Grad der Komplexität einer Entscheidung \({}s_j\) im Rahmen der Entscheidungskonfiguration \({}S\) des Unternehmens. \({}K\) drückt die Anzahl der abhängigen Entscheidungen \({}s_{-j}\) aus. Steigt demnach \({}K\), werden Entscheidungen komplexer. Die Annahme, dass mit steigender Komplexität auch die Abhängigkeit zwischen Einzelentscheidungen steigt, findet sich beispielsweise auch in Simon (1962) wieder. Ist \({}K=0\), beeinflussen sich die einzelnen Entscheidungen nicht gegenseitig. Dies lässt sich durch \({}w(s_j,s_{-j}) = w(s_{j})\) ausdrücken.

Um eine Fitness-Landschaft zu konstruieren, wird jeder Entscheidung \({}s_j\) und ihren abhängigen Entscheidungen \({}s_{-j}\) initial ein zufälliger Wert w, der aus der Gleichverteilung U[0, 1] kommt, zugeordnet. Es ergibt sich:

$$\begin{aligned} {}w(s_j,s_{-j}) \sim U[0,1] \text { f}{\ddot{\text {u}}}{\text {r }} j = 1, \ldots , {}N \text { .} \end{aligned}$$
(3.5)

Gleichung (3.4) kann entsprechend zu

$$\begin{aligned} {}W(S) = \frac{1}{{}N} \sum _{j=1}^{N}{}w(s_j,s_{-j}) \end{aligned}$$
(3.6)

erweitert werden.

Die Fitness-Landschaft bildet den Problemraum, in dem Unternehmen bestrebt sind, ihre Entscheidungen zu ändern, um so ihre Leistungsfähigkeit zu erhöhen und demnach eine höhere Fitness zu erreichen.

Um im Modell Ungewissheit zu simulieren, initiieren Welter und Kim (2018) im Simulationsablauf Schocks in die Fitness-Landschaft. Dabei wird nach jeder Periode \({}T_S\) die Fitness-Landschaft in ihrer Beschaffenheit verändert. Dazu wird \({}w(s_j,s_{-j})\) mit \((1-{}\tau ){}w(s_j,s_{-j})+{}\tau U\) ersetzt, wobei U einen zufälligen Wert aus der Gleichverteilung U[0, 1] darstellt und \({}\tau \) im Intervall von [0, 1] liegt. Entsprechend wird die Abbildung von Entscheidungen zu Leistungswerten geändert.

Der Grad der Ungewissheit wird mittels des Parameters \({}\tau \) realisiert. Beträgt \({}\tau = 0\), befindet sich das Unternehmen in Form eines Agenten in einem Risiko-Kontext. Die Fitness-Landschaft ändert sich während der Simulation nicht. Beträgt hingegen \({}\tau = 1\), ist zwischen zwei aufeinanderfolgenden Fitness-Landschaften kein Zusammenhang mehr gegeben und ein ungewisser Kontext tritt ein.

Der Entscheidungsfindungsprozess des Agenten wird durch eine adaptive Suche nach besseren Leistungswerten von begrenzt rationalen Individuen (Simon, 1959) konzeptualisiert (Cyert & March, 1963; Levinthal, 1997). Der Suchprozess im Sinne eines Optimierungsalgorithmus wird mit Hilfe des Hill-Climb-Verfahrens umgesetzt (Csaszar & Siggelkow, 2010; Rivkin, 2000). Bei dieser Heuristik suchen Agenten nach einer Entscheidungskonfiguration, die einen besseren Leistungswert als die ursprüngliche Konfiguration aufweist, indem jeweils nur eine Entscheidung verändert wird und die entsprechenden Leistungswerte verglichen werden. Sofern die geänderte Entscheidungskonfiguration zu einem besseren Leistungswert führt, passt der Agent die untersuchte Entscheidung an. Andernfalls behält der Agent die ursprüngliche Entscheidungskonfiguration bei. Die Anwendung des Hill-Climb-Verfahrens begründen Welter und Kim (2018) zudem mit dem Konzept der begrenzten Rationalität, wie es bereits Simon (1959) eingeführt hat. Demnach können Agenten nicht über die gesamte Fitness-Landschaft nach dem Optimum suchen, sondern haben lediglich die Möglichkeit, pro Zeitpunkt jeweils eine Entscheidung anzupassen und anschließend die Leistungsfähigkeit der Entscheidungskonfiguration zu überprüfen.

Zur Modellierung des Planungsgrades verwenden Welter und Kim (2018) einen Parameter \({}\varrho \). Dieser beschreibt die Anzahl an Entscheidungen einer Entscheidungskonfiguration, die während des Suchprozesses fix sind. Dabei kann \({}\varrho \) die Werte \(0, \ldots , {}N\) annehmen. Die \({}\varrho \) Entscheidungen werden zufällig aus \({}N\) Entscheidungen ausgewählt. Effektuativ handelnde Agenten werden mit \({}\varrho = 2\), Agenten, die kausaler Logik folgen, werden mit \({}\varrho = 8\) operationalisiert. Die Tatsache, dass Effectuation-Agenten nicht \({}\varrho = 0\) fixe Entscheidungen haben, liegt darin begründet, dass effektuative Entrepreneure auf ihre aktuell zur Verfügung stehenden Mittel begrenzt sind (Sarasvathy, 2009, S. 75) und demzufolge ein Teil der Entscheidungen (\({}\varrho = 2\)) bereits fix ist.

Um den Agenten mit der Möglichkeit auszustatten Vorhersagen zu treffen, verwenden Welter und Kim (2018) den Parameter \({}\lambda \). Dieser gibt die Wahrscheinlichkeit an, mit der jede der \({}\varrho \) Entscheidungen der Entscheidungskonfiguration des Agenten mit den Entscheidungen der Entscheidungskonfiguration des globalen Maximums übereinstimmt. Je höher demnach \({}\lambda \) ist, desto höher ist die Chance des Agenten das globale Maximum zu bestimmen. Zusammenfassend werden folgende Parameter zur Konstruktion des Simulationsaufbaus und Manipulation des Simulationsablaufs verwendet:

  • \({}S \text { mit } {}s_j \in \{0,1\}\): Entscheidungskonfiguration als Repräsentation eines Unternehmens

  • \({}N\): Anzahl der Entscheidungen \({}s_j\) innerhalb einer Entscheidungskonfiguration \({}S\)

  • \({}K\): Komplexitätsgrad im Sinne der Anzahl von Entscheidungen \({}s_{-j}\), die mit \({}s_j\) in Verbindung stehen

  • \({}W(S)\): Leistungsmaß einer Entscheidungskonfiguration, welches zu jedem Simulationszeitpunkt \({}t\) gemessen wird; nach Ablauf einer Simulation werden alle \({}W(S)\) aufsummiert und über die Zeit \({}t={}T\), mit \({}T\) als Anzahl der Simulationszeitschritte, gemittelt; anschließend werden die einzelnen gemittelten Leistungswerte nach Durchführung mehrerer Simulationsdurchläufe mit unterschiedlichen Fitness-Landschaften nochmals gemittelt.

  • \({}\tau \): Parameter zur Steuerung des Risiko- bzw. Ungewissheits-Kontextes durch Veränderung der Fitness-Landschaft

  • \({}\varrho \): Anzahl der fixen Entscheidungen innerhalb einer Entscheidungskonfiguration \({}S\)

  • \({}\lambda \): Wahrscheinlichkeit, mit der jede der \({}\varrho \) fixen Entscheidungen des Agenten kongruent mit den Entscheidungen an der selben Stelle der Entscheidungskonfiguration des globalen Maximums ist

Zur Durchführung der Simulation des agentenbasierten Modells wird zunächst aus den Parametern \({}N\), \({}K\) und \({}\tau \) eine Fitness-Landschaft erzeugt. Weiterhin wird die Lage des Unternehmens in der Fitness-Landschaft, in Form einer Entscheidungskonfiguration, zur Zeit \({}t=1\) mittels einer Bernoulli-Verteilung mit der Erfolgswahrscheinlichkeit \(p=0,5\) für die einzelnen Entscheidungen \({}s_j\) mit \(j \in \{1,2,\ldots ,{}N\}\) bestimmt. Danach folgen die Unternehmens-Agenten dem adaptiven Suchalgorithmus bis zur Zeit \({}t={}T\), wobei \({}T\) die Anzahl der gesamten Simulationszeitschritte darstellt. Die Anzahl der Simulationsschritte \({}T\) wird in Perioden eingeteilt, die die Länge \({}T_S\) haben. Im Anschluss wird auf Grundlage des Parameters \({}\tau \) nach \({}T_S\) Zeitschritten ein Schock in die Fitness-Landschaft initiiert, der den Risiko- bzw. ungewissen Kontext simuliert. Nach Auftreten des Schocks ändern die Agenten \({}\varrho \) ihrer Entscheidungen, basierend auf dem Vorhersage-Parameter \({}\lambda \), hinsichtlich des globalen Maximums. Die Schritte der adaptiven Suche und der Schockinitiierung werden wiederholt bis \({}t={}T\) und die Simulation somit beendet ist. In Form von Pseudo-Code lässt sich der Simulationsablauf von Welter und Kim (2018), wie in der Übersicht Algorithmus 2 beschrieben, algorithmisch interpretieren. Die Prozedur stellt hierbei eine Verallgemeinerung des von Welter und Kim (2018) entwickelten Simulationsablaufs dar, sodass die Anzahl der Ausprägungen, die eine Entscheidung annehmen kann, beliebig groß sein kann. Um die Simulation durchzuführen, verwenden Welter und Kim (2018) eine Parameterkonfiguration mit \({}N=10,{}T_S=10 \text { und } {}T=200\). Die Parameter \({}K,{}\tau , {}\varrho \text { und } {}\lambda \) werden während der insgesamt 25.000 durchgeführten Simulationsdurchläufe geändert. Damit folgen Welter und Kim (2018) den Monte-Carlo=Simulationstechniken, wie sie unter anderem von Law und Kelton (1991), Mauer et al. (2017), Davis et al. (2009) und Rivkin (2000) vorgeschlagen werden.

figure b

Die Simulationsergebnisse zeigen, dass Effectuation (bei \({}\varrho = 2\)) gegenüber kausaler Logik (\({}\varrho = 8\)) in einem großen Spektrum von Risiko- und ungewissen Entscheidungskontexten (\({}\tau \)) sowie dem Großteil der Bandbreite der Vorhersage-Fähigkeit des Agenten (\({}\lambda \)) überlegen ist. Lediglich in Situationen, in denen \({}\tau \) klein ist und somit ein Risiko-Kontext vorherrscht bzw. in denen \({}\lambda \) hoch ist, ist die Leistungsfähigkeit kausaler Logik im Vergleich zu Effectuation höher. Eine kritische Evaluation der hier zusammengefassten Ergebnisse erfolgt in Abschnitt 3.2.2.

3.1.3 Simulationsmodell nach Eberz (2018)

Eberz (2018) hat mit FSim eine interaktive Verhaltenssimulation entwickelt, um effektuative und kausale Verhaltensweisen von Nutzern in verschiedenen Szenarien zu untersuchen. Methodisch orientiert sich Eberz (2018, S. 70) an Design Science, wie ihn Hevner et al. (2004) und March und Storey2008 beschreiben. Charakteristisch für diesen Forschungsansatzes ist, dass im organisationalen Kontext neue und innovative Artefakte geschaffen werden, deren Mehrwert im Anschluss evaluiert wird (Hevner et al., 2004). Mit dem in Eberz (2018) vorgestellten Simulationsmodell wird zudem die Frage untersucht, wie kausales und effektuatives Verhalten operationalisiert werden kann. Dabei erweitert Eberz (2018) die Operationalisierungsbestrebungen in der Effectuation-Forschung von Chandler et al. (2011) und McKelvie et al. (2011) um Faktoren der Persönlichkeit unerfahrener Entrepreneure.

Eberz (2018, S. 78–95) stellt an die Entwicklung des Simulationsmodells mehrere funktionale Anforderungen, die aus Fallstudien und Gedankenexperimenten aus der Literatur abgeleitet werden. Sie betreffen die Bereiche:

  • Mittel- und Zielorientierung

  • Akteure

  • Aktionen

  • Nutzer

  • Interaktionen

  • Allgemein (z. B. Reproduzierbarkeit, Abbildung des entrepreneurialen Problemraums und Protokollierbarkeit der Interaktionen)

Neben den fallstudienbasiert-funktionalen Anforderungen stellt Eberz (2018, S. 95–104) an FSim auch konstruktbasiert-funktionale Anforderungen. Diese betreffen Messindikatoren, die Chandler et al. (2011) zur Messung von Effectuation und Causation verwenden. Die operationalisierten Indikatoren interpretiert Eberz (2018) für die konkrete Umsetzung in FSim. Darüber hinaus werden im Hinblick auf die Entwicklung des Simulationsmodells auch mehrere nicht-funktionale Anforderungen benannt, die sich insbesondere auf die Bedienbarkeit des Simulationsmodells beziehen. Die Bestimmung nicht-funktionaler Anforderungen liegt in der Tatsache begründet, dass FSim effektuatives und kausales Verhalten auf Grundlage der Nutzerinteraktion mit dem Artefakt untersucht.

Im Vorfeld der Implementierung des Simulationsmodells beschreibt Eberz (2018, S. 72–78) die Architekturskizze und das Domänenmodell von FSim und bezieht sich dabei auf die Erläuterungen zum grundlegenden Aufbau in Eberz et al. (2015). Dabei dient die Architekturskizze als Mittel zur Darstellung der Vision von FSim. Darüber hinaus gibt sie Aufschluss über die Rolle des Nutzers als Akteur, der mit FSim interagiert und die des Beobachters, der auf die historischen Daten, die durch die Interaktion entstanden sind, zugreifen kann. Der Akteur steht diesbezüglich in Interaktion mit dem Artefakt. Der Beobachter hingegen hat die Möglichkeit auf historische Daten zuzugreifen, die durch die vom Akteur durchgeführten Interaktionen entstanden sind. Das Domänenmodell, das als UML-Klassendiagramm umgesetzt ist (Rupp, 2007), dient als Glossar für die Darstellung der Entitäten und Beziehungen dieser zueinander, zur Beschreibung der zu untersuchenden Domäne.

Nach Interaktionen der Akteure mit FSim werden zu Simulationszwecken verschiedene Ereignisse ausgelöst. Dazu gehören die Produktions- und Vertriebsroutinen. Zudem wird eine virtuelle Nachfrage des virtuell zu produzierenden Produkts berechnet. Die mathematische Modellierung des Produkt-Fits, der als Grundlage für die Ermittlung der Nachfragefunktion fungiert sowie die Modellierung der Nachfrage selbst, werden im Anhang der Arbeit von Eberz (2018, S. 233–238) vorgestellt.

Der Produkt-Fit dient in Eberz (2018) der Operationalisierung der Produktgüte. Nkwocha et al. (2005) verwenden den Begriff des product fit im Kontext der Markenerweiterung und verstehen darin, wie sehr sich ein Kunde mit einem Produkt identifizieren kann. In der populärwissenschaftlichen Literatur ist auch der Begriff product-market-fit zu finden, der beschreibt, inwieweit die Ausgestaltung eines Produktes der Marktnachfrage entspricht (Blank & Dorf, 2020, S. 57). Eberz (2018) weicht von den bisherigen Interpretationen ab und definiert, dass der „Produkt-Fit zur Operationalisierung der Güte eines Produktes“ (Eberz, 2017, S. 233) dient. Zur Berechnung des Produkt-Fit bezieht sich (Eberz, 2018, S. 233) auf die Einsatzmenge und den Preis von verschiedenen Produktionsfaktoren, die während der Simulation bestimmt werden. Die Beitragsleistung eines Produktionsfaktors zur Gesamtgüte eines Produktes (Produkt-Fit) wird über die Dichtefunktion \(\varphi \) einer Normalverteilung \(N(\mu , \sigma ^2)\) ausgedrückt. Die optimale Einsatzmenge eines Produktionsfaktors als maximaler Beitrag zur Produktgüte wird durch den Erwartungswert \(\mu \) bestimmt, Abweichungen davon werden mit dem Streuungsparameter \(\sigma ^2\) beschrieben. Die Dichtefunktion \(\varphi _i\) stellt die Abbildung der Einsatzmenge \({}r_i\) eines Produktionsfaktors i auf ein Gütemaß \({}\varphi _i(r_i)\) dar. Dieser Zusammenhang lässt sich durch

$$\begin{aligned} {}\varphi _i(r_i) = \frac{1}{\sqrt{2\pi {}\sigma _i^2}}e^{-\frac{({}r_i - {}\mu _i)^2}{2 {}\sigma _i^2}} \end{aligned}$$
(3.7)

ausdrücken.

Das wirtschaftliche Ziel ist es, die Gütebeiträge der Produktionsfaktoren zu maximieren, da diese Einfluss auf die Nachfrage des Produkts haben. Die Maximierung eines Gütebeitrags kann mathematisch mit \({}\varphi _i(r_i) \rightarrow \max \) beschrieben werden. Die Beitragshöhe eines Produktionsfaktors i lässt sich mit Hilfe des Varianzparameters \({}\sigma _i^2\) steuern. Dabei ist zu erreichen, dass in optimaler Menge eingesetzte Produktionsfaktoren, die vergleichsweise teurer sind, einen größeren Beitrag zum Produkt-Fit leisten. Die Bestimmung des Streuparameters \({}\sigma _i^2\) für jeden Produktionsfaktor i wird mittels des jeweiligen Faktorpreises \({}p_i\) modelliertFootnote 2. Es ergibt sich:

$$\begin{aligned} \sigma _i^2 = \frac{1}{{}p_i} \text {.} \end{aligned}$$

Die optimale Faktoreinsatzmenge, die dem Erwartungswert \({}\mu _i\) entspricht, wird in Eberz (2018, S. 234) aus den vorgegebenen Faktorpreisen festgelegt und errechnet sich mit Hilfe der Differenz des Preises des teuersten Faktors und des jeweiligen Produktionsfaktors plus 1. Mathematisch ließe sich dies durch

$$\begin{aligned} {}\mu _i = g(p_{max} - {}p_i + 1) \end{aligned}$$

ausdrücken, wobei \(p_{max}\) den Preis des teuersten Faktors repräsentiert. Dabei ist jedoch unklar, ob die Funktion \(g(\cdot )\) die identische Abbildung oder eine andere monoton wachsende Funktion ist. Eberz (2018, S. 234) formuliert darauf aufbauend lediglich folgende axiomatische Annahme:

„Je größer der preisliche Abstand zum teuersten Produktionsfaktor, desto höher die optimale Einsatzmenge des betrachteten Faktors.“

Eberz (2018, S. 233–235) stellt in seinen Ausführungen keinen eindeutigen Zusammenhang zwischen der Einsatzmenge \({}r_i\) und dem jeweiligen Preis \({}p_i\) eines Produktionsfaktors i heraus. Auf Grundlage der bisherigen Annahmen wird die Berechnung des Produkt-Fits für \({}l\) verschiedene Produktionsfaktoren durch Eberz (2018, S. 235) folgendermaßen definiert:

$$\begin{aligned} {}P_f = \frac{1}{{}l}\sum _{i=1}^{{}l}{}\varphi _i(r_i) \text {.} \end{aligned}$$

Zur Modellierung der Marktnachfrage verwendet Eberz (2018, S. 236) eine linear fallende Funktion, wobei der Prohibitiv-Preis \({}P_V\) als Schnittpunkt der Funktion mit der Ordinatenachse (Preis) und die Sättigungsmenge \({}z\) als Schnittpunkt mit der Abszissenachse (abgesetzte Menge) definiert sind. Dieser Zusammenhang wird grafisch in Abbildung 3.2 veranschaulicht.

Abb. 3.2
figure 2

Grafische Darstellung der von Eberz (2018) formulierten Marktnachfrage-Funktion

Der Prohibitiv-Preis \({}P_V\) eines Produktes P wird mit Hilfe des Produkt-Fits \({}P_f\) und des Selbstkostenpreises \({}P_k\) wie folgt berechnet:

$$\begin{aligned} {}P_V = {}P_f \cdot 10 \cdot {}P_k \text {.} \end{aligned}$$

Eberz (2018, S. 236) bezieht in die Berechnung die Selbstkosten \({}P_k\) ein, da teurere Produktionsfaktoren einen höheren Prohibitiv-Preis begründen. Die Einbeziehung des Faktors 10 in die Berechnung des Prohibitiv-Preises hat gemäß Eberz (2018, S. 236) die Funktion eines Multiplikators, wobei offengelassen wird, welchen Nutzen die Verwendung des Faktors bringt.

Zur Beschreibung der Nachfragefunktion verwendet Eberz (Eberz, 2018, S. 236) die mathematische Form:

$$\begin{aligned} r = {}h \cdot p + {}z \text {, } \end{aligned}$$

wobei \({}h\) durch

$$\begin{aligned} {}h = \frac{\Delta r}{\Delta p} = \frac{- \frac{1}{{}P_f}}{1} = - \frac{1}{{}P_f} \end{aligned}$$

bestimmt wird. Die Mengenänderung \(\Delta r\) wird, bei einer Preisänderung von \(\Delta p = 1\), mittels des negativ inversen Produkt-Fits dargestellt. Zudem stellt die Mengenänderung im Kontext der Nachfragefunktion, wie sie beispielsweise in Natrop (2012) beschrieben wird, eine Änderung der nachgefragten Gesamtmenge eines Gutes dar. Der Produkt-Fit \({}P_f\) in Eberz (2018, S. 235) bezieht sich auf die mengenabhängigen Gütebeiträge von Produktionsfaktoren zum Produkt. Inwiefern der Produkt-Fit eines Produktes inhaltlich in Zusammenhang mit der nachgefragten Menge des Produktes steht, lässt Eberz (2018) offen.

Die nach dem erläuterten Vorgehen berechnete Nachfrage r wird während der Simulation nach jeder Simulationsperiode modifiziert. In Eberz (2018, S. 237 f.) wird die Nachfragemodifikation in fünf Teile untergliedert:

  1. 1.

    Multiplikation der Nachfrage r mit einem Basismultiplikator, der durch das jeweilige Simulationsszenario bestimmt ist zur Festlegung eines Nachfrage-Niveaus

  2. 2.

    Multiplikation der Marktnachfrage r mit einem Marktereignis-Multiplikator im Intervall \([1; \infty )\) (Marktaufschwung) bzw. [0; 1] (Marktrezession).

  3. 3.

    Anteilmäßige Verringerung der Nachfrage proportional zu den gehaltenen Marktanteilen der virtuellen Konkurrenz

  4. 4.

    Multiplikation der Nachfrage r mit einem Marketing-Multiplikator

  5. 5.

    Multiplikation der Nachfrage r mit einem Vertriebs-Multiplikator, der durch die Wahl des Vertriebskanals bestimmt ist

Die interaktive Simulation, die in Eberz (2018, S. 107) beschrieben wird, beginnt für den FSim-Nutzer mit einem Erklärungsvideo zur Benutzung des Artefakts. Dabei erhält er einen Begrüßungsdialog mit dem Hinweis, dass Nutzer – im Rahmen des Programms – freie Handlungsmöglichkeiten besitzen und kein bestimmtes Verhalten von den Probanden erwartet wird. Im Anschluss wird dem Nutzer die von Eberz (2018, S. 107) definierte Szenario-Beschreibung angezeigt. Das für die Simulation zugrundeliegende Szenario wird durch FSim automatisch gewählt und spiegelt eine spezifische Handlungsumgebung inklusive des aktuellen Simulationszustandes und der Simulationsparameter wider. Die Parameterkonfiguration bildet die für Effectuation kennzeichnenden Merkmale knightsche Ungewissheit, Umgebungsisotropie und Zielambiguität ab. Eberz (2018, S. 124) verwendet zur Operationalisierung knightscher Ungewissheit das Konzept der Umgebungsturbulenz (Waldman et al., 2001). Die Umgebungsisotropie wird mit Hilfe eines Indikators operationalisiert, der die Adäquatheit der zur Verfügung gestellten Informationen repräsentiert (Duncan, 1972, S. 318). Die Operationalisierung der Ziel-Ambiguität wird mittels der Indikatoren von Stazyk und Goerdel (2011) zur Zielklarheit realisiert.

Nach Initialisierung der FSim-Umgebung und Einführung des Nutzers in das Programm beginnt die interaktive Simulation, die durch Eingaben des Nutzers geprägt ist. Der Nutzer kann – ausgehend vom Szenariokontext – Handlungsentscheidungen anhand seines Vermögens, möglicher Rechtsformen und Lager sowie gehaltener Unternehmensanteile treffen. Nach Durchführung der Aktivitäten durch den Nutzer werden die Vertriebs- und Produktionsroutinen angestoßen und die entsprechenden Parameter für die nächste Simulationsperiode gesetzt. Der Benutzer hat die Möglichkeit, am Ende jeder Simulationsperiode die Simulation zu beenden. Nach Beendigung des Simulationsteils hat der Nutzer die Möglichkeit, Fragen zum eigenen Verhalten, zu Beobachtungen der Umgebung während der Simulation und seiner Persönlichkeit zu beantworten. Die daraus resultierenden Daten dienen gemäß den Ausführung in Eberz (2018) zur Bestimmung effektuativen und kausalen Verhaltens. Die Offenlegung der in den Experimenten erfassten Befragungs- und Simulationsdaten ist nicht Bestandteil der Arbeit. Es erfolgt lediglich eine Darstellung der Verhaltensausmaße und Verhaltensunterschiede auf Grundlage der Daten.

3.1.4 Vergleich der Simulationsmodelle

Um auf die in dieser Arbeit gestellte Forschungsfrage Antworten zu finden, werden die in den Abschnitten 3.1.1 bis 3.1.3 diskutierten Simulationsmodelle evaluiert und gegenübergestellt. Dadurch wird die Ableitung weiterer Modellierungsanforderungen ermöglicht. Zur Bewertung von Simulationsmodellen schlagen Gulyás und Kampis (2015) ein Rahmenwerk vor, das sich auf Erkenntnisse aus Robinson (1997) bezieht. In Robinson (1997) wird die Notwendigkeit von Verifikation und Validierung eines Simulationsmodells beschrieben. Dabei erlauben Verifikation und Validierung Ergebnisse einer Studie transparent und nachvollziehbar zu machen. Ausgehend von den Ausführungen von Sargent (1992) zu Verifikations- und Validierungsanforderungen während des Simulationsmodellierungsprozesses definiert Robinson (1997) verschiedene Arten der Validierung:

  • Konzeptuelle Modellvalidierung: Prüfung des Detailgrades des Modellkonzeptes gegen die Erkenntnisziele der Simulationsstudie

  • Datenvalidierung: Prüfung der Akkuratesse der für die Modellierung, Validierung und Experimentation geforderten Daten

  • White-Box-Validierung: Prüfung der Akkuratesse der Simulationselemente gegen die abzubildenden realweltlichen Systemelemente

  • Black-Box-Validierung: Prüfung der Akkuratesse des gesamten Simulationsmodells gegen das gesamte zu untersuchende realweltliche Phänomen

Gulyás und Kampis (2015) fassen die Validierungsanforderungen von Robinson (1997) zusammen und beziehen diese in die Entwicklung ihres Frameworks ein. Dabei werden folgende Kriterien für den Vergleich verschiedener Simulationsmodelle identifiziert:

  • Validierung: Prüfung der Akkuratesse des Modells und der Modellelemente hinsichtlich der tatsächlichen Abbildung bisheriger empirischer Modelle über die reale Welt. Konkret kann Validierung auch definiert werden als „substantiation that a computerized model within its domain of applicability possesses a satisfactory range of accuracy consistent with the intended application of the model“ (Schlesinger et al., 1979, S. 104)

  • Verifikation: Vergleich des implementierten Simulationsmodells mit den durch den Modellierer im Vorfeld definierten Spezifikationen

  • Replikation: Als Alternative zur Verifikation können die Ergebnisse einer reproduzierten Implementierung mit den Ergebnissen einer bereits existierenden Implementierung desselben Modells verglichen werden

  • Simulations-Docking: Als Alternative zur Verifikation können die Ergebnisse unterschiedliche Modellansätze mit demselben Simulationsziel miteinander verglichen werden

Das SCS Technical Committee on Model Credibility hat eine Terminologie entwickelt, um die Glaubwürdigkeit von Simulationsmodellen zu untersuchen (Schlesinger et al., 1979). Die Terminologie wurde in einem Rahmenwerk zusammengefasst, das in der Literatur weiterentwickelt und erweitert wurde (Robinson, 1997; Sargent, 2013). Die Zusammenhänge der Verifikations- und Validierungsprinzipien im Rahmen des Modellierungsprozesses von Sargent (2013) werden in Abbildung 3.3 dargestellt und bauen auf dem entwickelten Modell in Schlesinger et al. (1979) auf. Abbildung 3.3 zeigt die Zusammenhänge im Modellierungsprozess zwischen den Elementen Realität als System, dem konzeptuellen Modell zur Beschreibung der analysierten Realität sowie dem computerisierten Modell in Form einer Implementierung des konzeptuellen Modells zur Experimentierzwecken. Parallel dazu erfolgen die Verifikations- und Validierungsprozesse, die den Abgleich zwischen den Modellierungselementen beschreiben. Zum Vergleich und zur kritischen Diskussion der in den Abschnitten 3.2.1 und 3.2.2 vorgestellten effektuativen Simulationsmodelle wird insbesondere die Überprüfung der Modelle vorgenommen. Da den zu diskutierenden Modellen von Eberz (2018), Welter und Kim (2018) sowie Mauer et al. (2017) nur rudimentäre Hinweise zur Implemntierung der vorgestellten Modelle gegeben werden, wird eine konzeptuelle Validierung der Modelle vorgenommen, wie sie in Sargent (2013) vorgestellt wird. Hierzu soll insbesondere geklärt werden, ob “(1) the theories and assumptions underlying the conceptual model are correct and (2) the model’s representation of the problem entity and the model’s structure, logic, and mathematical and causal relationships are ‘reasonable’ for the intended purpose of the model” (Sargent, 2013, S. 17). Zur Beantwortung dieser Modellvalidierungsfragen stellt Sargent (2013) Validierungstechniken vor. Die zur Beurteilung der betrachteten Simulationsmodelle relevanten Methoden sind:

Abb. 3.3
figure 3

Zusammenspiel zwischen Modellierungsprozess und Validierungs- und Verifikationsprozess nach Schlesinger (1979)

  • Vergleich zu anderen Modellen: Gegenüberstellung der Ergebnisse unterschiedlicher (valider) Simulationsmodelle

  • Augenscheinvalidität (face validity): Überprüfung des Modellverhaltens hinsichtlich der Nachvollziehbarkeit durch Domänenexperten

  • Interne Validierung: mehrfache Durchführung des Simulationsablaufs zur Überprüfung der Variabilität des Modells

  • Operationalisierende Grafiken: Grafische Darstellung von Leistungswerten im Simulationszeitverlauf

Aufgrund der durch die Autoren Mauer et al. (2017), Welter und Kim (2018) und Eberz (2018) vorgestellten Modelleigenschaften und -daten wird zur Gegenüberstellung der Simulationsmodelle das von Gulyás und Kampis (2015) vorgeschlagene Konzept des Simulations-Dockings verwendet, bei dem Simulationsmodelle mit demselben Simulationsziel miteinander verglichen werden. Zusätzlich werden zur deskriptiven Gegenüberstellung der effektuativen (und kausalen) Modelle und zur Beantwortung der von Sargent (2013) formulierten Modellvalidierungsfragen folgende Kriterien definiert:

  • Typ des Simulationsmodells

  • Ziel der Modellierung

  • Beeinflussende Modellparameter

  • Modell-Ausgangsgrößen

  • Modellmechanismen

  • Ergebnisse der Simulation bzw. Befragung

  • Implementierungsform

In Tabelle 3.1 sind die gegenübergestellten Kriterien aufgeführt.

Neben dem Vergleich der unterschiedlichen Simulationsmodelle werden in den Abschnitten 3.2.1 und 3.2.2 die Modelle von Mauer et al. (2017) und Welter und Kim (2018) zunächst im Rahmen der von Sargent (2013) vorgeschlagenen Augenscheinvalidität überprüft. Im Zuge dessen werden die bestehenden Modellierungsentwürfe und Ergebnispräsentationen kritisch diskutiert.

Tab. 3.1 Gegenüberstellung der Simulationsmodelle

Des Weiteren werden die Modelle einer internen Validierung unterzogen. Mit Hilfe der replizierten Implementierungen werden die Simulationsabläufe nachgebildet und können anschließend mehrfach wiederholt werden. Dies entspricht der Anwendung der Simulation als Experimentierwerkzeug und erlaubt die Untersuchung realweltlicher Phänomene unter kontrollierten Bedingungen (Peck, 2004).

Die aus den Simulationen gewonnenen Ergebnisse können anschließend durch die Erstellung von Grafiken visualisiert werden. Dies erlaubt den Vergleich von Erkenntnissen, die einerseits aus der originären Simulation gewonnen wurden und andererseits aus einer Replizierung resultieren.

3.2 Verifikation und Validierung der bestehenden effektuativen Simulationsmodelle

Um die Ergebnisse von Mauer et al. (2017) und Welter und Kim (2018) nachzuvollziehen, wird im Folgenden der Ansatz der Replikation der Simulationsmodelle nach Gulyás und Kampis (2015) angewendet. Während bei der Verifikation bereits implementierte Simulationsmodelle mit einer im Vorfeld vom Modellierer definierten Spezifikation verglichen werden, werden bei der Replikation die Ergebnisse einer bereits bestehenden Implementierung mit den Ergebnissen einer reproduzierten Implementierung desselben Modells verglichen. Diese Form des Vergleichs wird im Kontext dieser Arbeit verwendet, da Implementierungsdetails, insbesondere in den Arbeiten von Mauer et al. (2017) und Welter und Kim (2018), nicht näher beschrieben werden.

Die vorhandenen Modelle von Mauer et al. (2017) und Welter und Kim (2018) wurden mit der Programmiersprache Python implementiert. Python bietet durch seine einfache Syntax die Möglichkeit gut lesbaren Programmiercode zu erstellen. Zudem können durch das Einbinden weiterer Bibliotheken zusätzliche Funktionalitäten genutzt werden, die vor allem im Bereich der wissenschaftlichen Programmierung Vorteile bringen (Oliphant, 2007). Im Rahmen der reproduzierten Implementierung wurden diesbezüglich die Programmbibliotheken numpy, pandas, matplotlib und weitere Standard-Python-Bibliotheken genutzt. Die konkreten Implementierungen der Modelle von Mauer et al. (2017) und Welter und Kim (2018) sind in Anhang B.1 und B.2 im elektronischen Zusatzmaterial zu finden.

Das von Eberz (2018) interaktive Simulationsmodell wurde nicht als eigene Implementierung reproduziert. Die teils unzureichenden Beschreibungen der Simulationsroutinen, die für eine Replikation jedoch notwendig sind, und die Einbeziehung von Versuchsteilnehmern, deren zugrundliegende Merkmalsstruktur in der Nachbildung der Simulation berücksichtigt werden müsste, rechtfertigen den zusätzlichen Erkenntnisgewinn aus forschungsökonomischen Gründen nicht.

Für die implementierten Replikationen wurden dieselben Parameterwerte verwendet, die in Mauer et al. (2017) und Welter und Kim (2018) genannt werden und die daraus resultierenden Ergebnisse mit den Ergebnissen der genannten Autoren verglichen.

3.2.1 Kritische Evaluierung des Simulationsmodells von Mauer et al. (2017)

Im Fall von Mauer et al. (2017) wurden im Zuge der kritischen Evaluierung die folgenden Parameter in die Untersuchung einbezogen:

  • Anzahl der Artefakt-Vektorkomponenten (\({}n\))

  • Anzahl der flexiblen Artefakt-Vektorkomponenten (m)

  • Anzahl der möglichen Ausprägungen pro Artefakt-Vektorkomponente

  • Anzahl der vorhersagebasierten Agenten

  • Anzahl der steuerungsbasierten Agenten

  • Anzahl der Konsumenten-Agenten

  • Nachfragekonzentration (\({}c\))

Ergänzend wurden zur Realisierung der Implementierung und der damit einhergehenden Untersuchung des Simulationsmodells die Anzahl der Konsumenten-Agenten, die vorhersagebasierte Agenten zur Abschätzung der gesamten Nachfrage betrachten, sowie die Anzahl der Simulationsdurchläufe definiert.

Vor Ausführung der reproduzierten Implementierung wurden die Parameter mit den in Mauer et al. (2017) genannten Werten initialisiert. Zur Untersuchung des Einflusses der Änderung der Nachfragekonzentration \({}c\) auf den mittleren Market-Fit werden initial die Parameterwerte

$$\begin{aligned} {}n&= 5\\ m&= 3\\ {}k&= 2\\ {}c&= 0.5 \end{aligned}$$

verwendet. Die Anzahl der vorhersagebasierten und steuerungsbasierten Agenten wird jeweils auf den Wert 20 gesetzt. Die Anzahl der Konsumenten-Agenten wird auf den Wert 60 festgelegt. Die Anzahl der Simulationsdurchläufe beträgt im allgemeinen Fall 170. Zusätzlich wurde die Anzahl der Konsumenten-Agenten, die zur Abschätzung der Nachfrage notwendig sind, mit dem Wert 10 initialisiert. Dieser Parameter wurde in Mauer et al. (2017) nicht explizit aufgeführt, ist jedoch für die Durchführung der replizierten Simulation von Bedeutung.

Die Nachfragekonzentration \({}c\), deren inhaltliche Erläuterung in Abschnitt 3.1.1 zu finden ist, wurde mit dem Wert 0.5 initialisiert. Für den Fall, dass es zwei Merkmalsausprägungen (\({}k = 2\)) gibt, treten demnach beide Ausprägungen über alle Komponenten aller Nachfragevektoren gleich häufig auf.

Zum Vergleich der Simulationsergebnisse wurden die folgenden Aspekte des entrepreneurialen Problemraums und die damit in Verbindung stehenden Parameteränderungen untersucht:

Isotropie \(\rightarrow \):

Auswirkungen der Änderung der Nachfragekonzentration \({}c\) während der Fertigstellung der Produkt-Artefakte durch die Anbieter-Agenten und der Produktdiversität \({}k\) auf den mittleren Market-Fit

Unvorhersagbarkeit \(\rightarrow \):

Auswirkungen der Änderung der Nachfragekonzentration \({}c\) nach Fertigstellung der Produkt-Artefakte durch die Anbieter-Agenten auf den mittleren Market-Fit

Ziel-Ambiguität \(\rightarrow \):

Auswirkungen der Änderung der flexiblen Artefakt-Vektorkomponenten m und Nachfragekonzentration \({}c\) auf den mittleren Market-Fit

Auswirkungen bei Änderung der Isotropie

Die Abbildungen 3.4 und 3.5 stellen das Verhalten der vorhersage- und steuerungsbasierten Agenten bei sich ändernder Isotropie dar. Abbildung 3.4 zeigt die Änderung der Nachfragekonzentration \({}c\) einer zufällig gewählten Merkmalsausprägung bei \({}k = 2\) und ihre Auswirkungen auf den mittleren Market-Fit während des Produkt-Artefakt-Erstellungsprozesses. Die Nachfragekonzentration ist zunächst gleichverteilt über \({}k=2\) Merkmalsausprägungen und ändert sich hin zu einer einseitigen Marktkonzentration der zufällig ausgewählten Merkmalsausprägung, so dass diese von allen Nachfrage-Agenten präferiert wird. Abbildung 3.4a zeigt in diesem Zusammenhang die Simulationsergebnisse von Mauer et al. (2017). Dabei sinkt der mittlere Market-Fit der vorhersage- und steuerungsbasierten Agenten mit steigender Nachfragekonzentration und damit sinkender Isotropie. Dem Ansatz von Gulyás und Kampis (2015) folgend, erlaubt die Validierung der Ergebnisse gegen das realweltliche Phänomen keinen logischen Schluss, da – mit eindeutiger Präferenz der Nachfrager hinsichtlich einer Merkmalsausprägung – die Anbieter mit sinkender Isotropie den Markt während der Produkt-Artefakt-Erstellung schlechter einschätzen und somit einen niedrigeren Market-Fit erzielen. Die Ergebnisse der replizierten Implementierung zeigen im Gegensatz dazu in 3.4b, dass der mittlere Market-Fit beider Anbieter-Agenten-Typen mit sinkender Isotropie und damit steigender Nachfragekonzentration ebenfalls steigt.

In beiden Fällen wird deutlich, dass der steuerungsbasierte Anbieter-Agent während der Änderung der Nachfragekonzentration einen niedrigeren mittleren Market-Fit erzielt, als der vorhersagebasierte Anbieter-Agent, sofern \({}c < 1\).

Abb. 3.4
figure 4

Vergleich der Simulationsergebnisse bei Änderung der Isotropie (Nachfragekonzentration \({}c\) während der Artefakt-Erstellung)

Zur weiteren Untersuchung des Verhaltens der vorhersage- bzw. steuerungsbasierten Agenten bei Änderung der Isotropie wurde ebenfalls eine Variierung der Anzahl der Merkmalsausprägungen \({}k\) vorgenommen. Dabei wird \({}k = 2, \ldots , 6\) gewählt und die Auswirkungen des Vorgehens der Anbieter-Agenten auf den mittleren Market-Fit beobachtet.

Der Dominanzwert \({}d\) wurde über die Variierung der Anzahl der Merkmalsausprägungen mit dem Wert 1.5 konstant gehalten. Hieraus ergibt sich, dass eine zufällig gewählte Merkmalsausprägung mit der Wahrscheinlichkeit \({}c = \frac{{}d}{{}k}\) auftritt. Die verbleibenden \({}k-1\) Merkmalsausprägungen treten folglich jeweils mit der Wahrscheinlichkeit \(\frac{1 - {}c}{{}k-1}\) auf.

Abbildung 3.5 zeigt die Ergebnisse der Simulation von Mauer et al. (2017) und der replizierten Implementierung. In beiden Fällen nimmt der mittlere Market-Fit der vorhersage- und steuerungsbasierten Agenten mit zunehmender Produkt-Diversität \({}k\) ab. Demnach wirkt sich eine Zunahme der Isotropie negativ auf den Market-Fit aus. Weiterhin wird deutlich, dass der steuerungsbasierte Anbieter-Agent in jedem Fall einen geringeren mittleren Market-Fit erzielt. Dieses Verhalten ist sowohl in den Simulationsergebnissen von Mauer et al. (2017) und der replizierten Implementierung zu beobachten.

Abb. 3.5
figure 5

Vergleich der Simulationsergebnisse bei Änderung der Isotropie (Anzahl der Merkmalsausprägungen \({}k\))

Auswirkungen bei Änderung der Unvorhersagbarkeit

Um die Auswirkungen der Änderung der Unvorhersagbarkeit auf den erzielten Market-Fit zu untersuchen, wurde erneut die Nachfragekonzentration \({}c\) variiert, allerdings erst nach Fertigstellung der Produkt-Artefakte durch die Anbieter-Agenten. Die vorhersage- und steuerungsbasierten Agenten reagieren demnach nicht mehr unmittelbar auf einen sich ändernden Markt, sobald der Produkt-Erstellungsprozess abgeschlossen ist.

Die Abbildungen 3.6 und 3.7 zeigen die Simulationsergebnisse von Mauer et al. (2017) und der replizierten Implementierung im Kontext einer variierenden Unvorhersagbarkeit bei einer Produktdiversität von \({}k = 2\) und einer Start-Wahrscheinlichkeit für das Auftreten einer zufällig gewählten Merkmalsausprägung von \({}c = 0.2\) der Konsumenten-Agenten. Für die replizierte Implementierung wurde eine andere Skalierung für die Werte von \({}c\) gewählt als in Mauer et al. (2017) und ist in den Abbildungen 3.6, 3.7a und 3.7b ersichtlich. Dies hat keinen Einfluss auf die Ergebnisse der Simulationen. Die veränderte Skalierung ist jedoch aufgrund einer besseren Nachvollziehbarkeit im Kontext der replizierten Implementierung besser geeignet.

Abb. 3.6
figure 6

Simulationsergebnisse nach Mauer et al. (2017) bei Änderung der Ungewissheit (Nachfragekonzentration \({}c\) nach der Artefakt-Erstellung)

Ein Vergleich der Ergebnisse der Implementierungen zeigt, dass die Anbieter-Agenten mit zunehmender Verschiebung der Nachfragekonzentration \({}c\) nach Fertigstellung der Produkt-Artefakte einen geringeren mittleren Market-Fit erzielen. Demnach wirkt sich eine Zunahme der Unvorhersagbarkeit über die künftige Nachfrage negativ auf die Leistungsfähigkeit der Anbieter-Agenten aus. Die Leistungsfähigkeit der steuerungsbasierten Agenten nimmt im Vergleich zu den vorhersagebasierten Agenten mit zunehmender Verschiebung der Nachfragekonzentration \({}c\) allerdings schwächer ab. Ab einer Marktkonzentration \({}c > 0.5\) erzielt der steuerungsbasierte Anbieter-Agent in jedem Fall einen größeren mittleren Market-Fit als der vorhersagebasierte Anbieter-Agent.

Die Ergebnisse der replizierten Implementierung weisen nicht das volatile Verhalten des steuerungsbasierten Agenten auf wie das in den Simulationsergebnissen von Mauer et al. (2017) zu beobachtende. Die Simulation der replizierten Implementierung wurde, um das Verhalten nachvollziehen zu können, im Standardfall mit 170 (Abbildung 3.7b) und 50 Durchläufen (3.7a) ausgeführt. In beiden Fällen folgt der Kurvenverlauf demselben Trend. Das Schwankungsverhalten konnte jedoch nicht reproduziert werden. Der in Abbildung 3.6 exakt lineare Zusammenhang zwischen Änderung der Nachfragekonzentration \({}c\) und dem mittleren Market-Fit der vorhersagebasierten Agenten konnte mit der von Mauer et al. (2017) beschriebenen Anzahl an Simulationsdurchläufen (50–170) ebenfalls nicht repliziert werden. Allerdings lässt sich beobachten, dass die Verläufe sich trendmäßig gleich verhalten.

Abb. 3.7
figure 7

Simulationsergebnisse der replizierten Implementierung bei Änderung der Ungewissheit (Nachfragekonzentration \({}c\) nach der Artefakt-Erstellung)

Auswirkungen bei Änderung der Ziel-Ambiguität

Die Auswirkungen einer unterschiedlich stark ausprägten Ziel-Ambiguität wurden mit Hilfe der Änderung des Parameters m modelliert, der die Anzahl der flexiblen Komponenten in den Produkt-Artefakt-Vektoren widerspiegelt. Hierbei wurde der Parameter m von 0 bis 4 variiert und die Auswirkungen der Änderung der Nachfragekonzentration \({}c\) auf den mittleren Market-Fit für die vorhersage- und steuerungsbasierten Agenten bei \({}k = 2\) untersucht.

Die Ergebnisse der von Mauer et al. (2017) durchgeführten Simulation und der replizierten Implementierung sind in den Abbildungen 3.8, 3.9 und 3.10 zu sehen. Erneut wird ersichtlich, dass mit zunehmender Änderung der Nachfragekonzentration \({}c\) einer zufällig gewählten Merkmalsausprägung der erzielte mittlere Market-Fit der Anbieter-Agenten sinkt. Die steuerungsbasierten Agenten weisen im Fall von Mauer et al. (2017) bei einer hohen bis moderaten Zielspezifizierung von \(0<m<3\) eine ähnliche Leistungsfähigkeit auf (Abbildung 3.8). Bei einer geringen Zielspezifizierung von \(m \ge 3\) ist die Leistungsfähigkeit der steuerungsbasierten Agenten, im Vergleich zu einer hohen bis moderaten Zielspezifizierung, tendenziell schlechter. Die abweichende Leistungsfähigkeit der steuerungsbasierten Agenten bei \(m \ge 3\) konnte mit Hilfe der replizierten Implementierung bei 170 (Abbildung 3.10) bzw. 50 Simulationsdurchläufen (Abbildung 3.9) nicht reproduziert werden.

Abb. 3.8
figure 8

Simulationsergebnisse nach Mauer et al. (2017) bei Änderung der Ziel-Ambiguität (Anzahl der flexiblen Komponenten m und Nachfragekonzentration \({}c\))

Bei den vorhersagebasierten Agenten zeigt sich bei Variation des Grades der Zielspezifizierung und Änderung der Nachfragekonzentration \({}c\) ein ähnliches Verhalten (vgl. Abbildung 3.8, 3.9 und 3.10). Mit steigender Nachfragekonzentration \({}c\) wird für \(0 \le m < 5\) ein niedrigerer Market-Fit erreicht. Mit zunehmender Ziel-Ambiguität fällt jedoch mit steigender Nachfragekonzentration \({}c\) die Leistungsfähigkeit stärker ab. Die Simulationsergebnisse in Abbildung 3.8, 3.9 und 3.10 weisen darauf hin, dass bei einer geringen Nachfragekonzentration \({}c\) der zufällig gewählten Merkmalsausprägung für größer werdenden Parameter m eine höhere Leistungsfähigkeit zu beobachten ist. Bei einer maximalen Nachfragekonzentration \({}c\) zeigt sich das gegenteilige Verhalten, sodass mit größer werdender Ziel-Ambiguität m die Leistungsfähigkeit, in Form des mittleren Market-Fits, geringer wird.

Im Gegensatz zu den Simulationsergebnissen von Mauer et al. (2017) in Abbildung 3.8 konnte in den Ergebnissen der replizierten Implementierung der exakt lineare Zusammenhang mit 50 (Abbildung 3.9) bzw. 170 Durchläufen (Abbildung 3.10) nicht reproduziert werden.

Abb. 3.9
figure 9

Simulationsergebnisse der replizierten Implementierung bei Änderung der Ziel-Ambiguität (Anzahl der flexiblen Komponenten m und Nachfragekonzentration \({}c\)) und 50 Simulationsdurchläufen

Abb. 3.10
figure 10

Simulationsergebnisse der replizierten Implementierung bei Änderung der Ziel-Ambiguität (Anzahl der flexiblen Komponenten m und Nachfragekonzentration \({}c\)) und 170 Simulationsdurchläufen

Diskussion der Simulationsergebnisse

Grundsätzlich weisen die Ergebnisse von Mauer et al. (2017) und der Replikation in den untersuchten Kontexten Isotropie, Unvorhersagbarkeit und Ziel-Ambiguität das trendmäßig gleiche Verhalten auf. Lediglich der Vergleich der Leistungswerte bei Änderung der Nachfragekonzentration während der Artefakt-Erstellung zeigt einen spiegelbildlichen Verlauf (siehe Abbildung 3.4).

Da Mauer et al. (2017, S. 253) zu dem Schluss kommen, dass, wenn „[...] many people constantly want the same thing, prediction might be a valuable tool to reach fit with market demand“, ist davon auszugehen, dass die Darstellung der Achsenskalierung in Abbildung 3.4a fehlerhaft ist. Verbal beschreiben Mauer et al. (2017) in ihrer Ergebnisdiskussion dasselbe Verhalten, welches sich in den Simulationsergebnissen der replizierten Implementierung in Abbildung 3.4b wiederfindet. Präferieren Konsumenten demnach ein spezielles Produktmerkmal im Vergleich zu anderen Ausprägungen stärker, können vorhersagebasierte Strategien erfolgsversprechender sein.

Weist die Umgebung eines Entrepreneurs einen hohen Grad an Unvorhersagbarkeit auf und ist die konkrete Ausgestaltung von Produktmerkmalen noch nicht vollständig spezifiziert, bietet sich die Anwendung steuerungsbasierter Strategien an. Je höher die Dynamik des und je ungewisser das Umfeld eines Entrepreneurs ist, desto sinnvoller ist ein steuerungsbasiertes Vorgehen. Diese Schlussfolgerungen lassen sich aus den Ergebnissen von Mauer et al. (2017) wie auch aus den replizierten Simulationsergebnissen ableiten.

3.2.2 Kritische Evaluierung des Simulationsmodells von Welter und Kim (2018)

Zur Nachvollziehbarkeit der Ergebnisse von Welter und Kim (2018) wurden die folgenden Parameter in der replizierten Implementierung (vgl. Anhang B.2 im elektronischen Zusatzmaterial) verwendet:

  • Anzahl der Entscheidungen innerhalb einer Entscheidungskonfiguration (\({}N\))

  • Anzahl der in Verbindung stehenden Entscheidungen (\({}K\))

  • Anzahl der gesamten Simulationszeitschritte (\({}T\))

  • Periodenlänge, nach der die NK-Landschaft mittels \({}\tau \) einen Schock erfährt (\({}T_S\))

  • Grad der Ungewissheit (\({}\tau \))

  • Anzahl der Entscheidungen einer Entscheidungskonfiguration, die während des Suchprozesses fix sind (\({}\varrho \))

  • Wahrscheinlichkeit, mit der jede der \({}\varrho \) Entscheidungen den korrespondierenden Entscheidungen des globalen Maximums entsprechen (\({}\lambda \))

Ergänzend wurden zur Realisierung der Implementierung und der damit einhergehenden Untersuchung des Simulationsmodells die Anzahl der möglichen Ausprägungen einer Entscheidung (\({}Q\)) und die Anzahl der Simulationsdurchläufe definiert.

Vor der Ausführung der reproduzierten Implementierung wurden die Parameter mit den in Welter und Kim (2018) vorgestellten Werten initialisiert. Zur Untersuchung des Einflusses der Änderung der Wahrscheinlichkeit \({}\lambda \) und des Grades der Ungewissheit \({}\tau \) auf die mittlere Leistungsfähigkeit von Unternehmen bei unterschiedlichem \({}\varrho \) wurden die Parameterwerte

$$\begin{aligned} {}N&= 10&{}\tau&\in \{0, 0.1, \ldots , 0.9, 1\}\\ {}K&= 8&{}\varrho&= 2 \text { (Effectuation) bzw. } {}\varrho = 8 \text { (Causation)}\\ {}T&= 200&{}\lambda&\in \{0, 0.1, \ldots , 0.9, 1\}\\ {}T_S&= 10&{}Q&= 2 \end{aligned}$$

verwendet. Die Anzahl der Simulationsdurchläufe wurde auf 300 festgelegtFootnote 3.

Der Vergleich der Ergebnisse der effektuativ und kausal handelnden Unternehmen findet im Kontext unterschiedlicher Ausprägungen von Risiko bzw. Ungewissheit und der Fähigkeit Vorhersagen zur Leistungsfähigkeit zu treffen statt. Diese werden mittels der Parameter \({}\tau \) und \({}\lambda \) modelliert:

Risiko bzw. Ungewissheit \(\;\rightarrow \):

Auswirkungen der Änderung von \({}\tau \) auf die mittlere Leistungsfähigkeit eines Unternehmens. Je kleinere Werte \({}\tau \) annimmt, desto eher befindet sich das Unternehmen in einem von Risiko geprägten Umfeld. Je größere Werte \({}\tau \) annimmt, desto eher ist die Umgebung des Unternehmens von Ungewissheit geprägt.

Vorhersagefähigkeit \(\rightarrow \):

Auswirkungen der Änderung von \({}\lambda \) auf die mittlere Leistungsfähigkeit des Unternehmens. Mit wachsendem \({}\lambda \) steigt die Wahrscheinlichkeit des Unternehmens \({}\varrho \) optimale Entscheidungen, und damit den besten Leistungswert in der NK-Landschaft, vorauszusagen.

Auswirkungen bei Änderung des Grades der Ungewissheit und der Vorhersagefähigkeit

Die in den Konturdiagrammen 3.11a und 3.11b dargestellten Ergebnisse zeigen die ermittelten mittleren Leistungswerte bei Variation der Parameter \({}\tau \) und \({}\lambda \) für \({}\varrho = 2\) und \({}\varrho = 8\) von Welter und Kim (2018). Während dunklere Rottöne vergleichsweise niedrige Leistungswerte repräsentieren, beschreiben hellere Rottöne vergleichsweise hohe Leistungswerte.

Abb. 3.11
figure 11

Simulationsergebnisse nach Welter und Kim (2018) bei Änderung des Grades der Ungewissheit (\({}\tau \)) und der Vorhersagefähigkeit (\({}\lambda \))

Im effektuativen Fall (vgl. Abbildung 3.11a) sind in Kontexten, die nahezu ausschließlich von Ungewissheit bzw. nahezu ausschließlich von Risiko geprägt sind, höhere Leistungswerte zu beobachten als in Bereichen, die eine Mischform von Ungewissheit und Risiko darstellen.

Bei kausal modelliertem Verhalten (vgl. Abbildung 3.11b) sind für große Werte von \({}\lambda \) über das gesamte Kontinuum von Ungewissheit bis Risiko im Mittel höhere Leistungswerte zu verzeichnen als bei kleinen Werten von \({}\lambda \). Mit wachsender Akkuratesse der Vorhersage der optimalen Entscheidungskonfiguration des Unternehmens werden demzufolge höhere Leistungswerte erzielt.

Aufgrund dessen, dass im effektuativen Fall (vgl. Abbildung 3.11a) ein größerer Anteil an Fläche mit helleren Rottönen als im kausalen Fall (vgl. Abbildung 3.11b) zu beobachten ist, ist darauf zu schließen, dass das effektuativ handelnde Unternehmen im Mittel über alle Parameterkonfigurationen von \({}\tau \) und \({}\lambda \) einen höheren Leistungswert erreicht als das kausal handelnde Unternehmen.

Um die Ergebnisse von Welter und Kim (2018) nachzuvollziehen, wurden ebenfalls über die Parameterkonfigurationen von \({}\tau \) und \({}\lambda \) mit Hilfe der replizierten Implementierung, wie sie in Anhang B.2 im elektronischen Zusatzmaterial zu finden ist, simuliert. Die resultierenden Konturdiagramme werden in 3.12a und 3.12b dargestellt.

Abb. 3.12
figure 12

Simulationsergebnisse der replizierten Implementierung bei Änderung des Grades der Ungewissheit (\({}\tau \)) und der Vorhersagefähigkeit (\({}\lambda \))

In extremen Bereichen nahe \({}\tau = 0\) und \({}\tau = 1\) treten bei variierendem \({}\lambda \) im effektuativen Fall der replizierten Simulationsergebnisse vergleichsweise hohe Leistungswerte auf (vgl. Abbildung 3.12a). Dies deckt sich mit dem Verhalten der Simulationsergebnisse von Welter und Kim (2018). Unterschiede zeigen sich jedoch in der Konzentration der vergleichsweise hohen Leistungswerte. Die replizierten Simulationsergebnisse sind für den Fall, dass \({}\varrho = 2\), annähernd symmetrisch um den Wert \({}\tau = 0.5\) verteilt. In den Ergebnissen von Welter und Kim (2018) hingegen zeigt sich, dass der Bereich mit vergleichsweise hohen Leistungswerten für große Werte von \({}\tau \) größer als für kleine Werte von \({}\tau \) – und damit nicht symmetrisch – ist.

Weiterhin reichen die Leistungswerte von Welter und Kim (2018) gemäß der in der Abbildung 3.11b dargestellten Skala von 0.5 bis 0.8, wobei aufgrund der Wahl des Farbschemas nicht eindeutig festgestellt werden kann, ob diese Werte vom effektuativen Agenten tatsächlich erreicht wurden. Erst Abbildung 3.13a gibt Aufschluss darüber, welche Leistungswerte tatsächlich erreicht werden. Demnach werden Werte von größer als 0.5 bis 0.8 erreicht.

Abb. 3.13
figure 13

Simulationsergebnisse nach Welter und Kim (2018) bei Änderung der Vorhersagefähigkeit (\({}\lambda \))

Im Vergleich dazu befinden sich die Leistungswerte in der replizierten Simulation für \({}\varrho = 2\) in einem kleineren Intervall, das von 0.608 bis 0.672 reicht. Für den kausal modellierten Fall der replizierten Implementierung (\({}\varrho = 8\)) werden Leistungswerte von 0.6 bis 0.76 beobachtet. Erneut sind die Leistungswerte annähernd symmetrisch um den Parameterwert \({}\tau = 0.5\) verteilt. Für den Fall, dass \({}\lambda < 0.5\) ist, treten, wie bei \({}\varrho = 2\), in den Extrembereichen nahe \({}\tau = 0\) und \({}\tau = 1\), vergleichsweise höhere Leistungswerte auf. Dieses Verhalten unterscheidet sich von den Ergebnissen von Welter und Kim (2018) in Abbildung 3.12b. Dort sind für Werte von \({}\lambda < 0.5\) lediglich in sehr ungewissen Kontexten (nahe \({}\tau = 1\)) vergleichsweise höhere Leistungswerte zu beobachten. Tendenziell steigen die Leistungswerte der replizierten Simulation mit wachsendem \({}\lambda \). Die Simulationsergebnisse von Welter und Kim (2018) zeigen ebenfalls ein Ansteigen der Leistungswerte für größer werdendes \({}\lambda \). Diese konzentrieren sich für große Werte von \({}\lambda \) allerdings überwiegend im Bereich großer Werte von \({}\tau \).

Auswirkungen bei Änderung der Vorhersagefähigkeit

Der Einfluss der Vorhersagefähigkeit \({}\lambda \) auf die Leistungsfähigkeit effektuativer (\({}\varrho =2\)) und kausaler (\({}\varrho =8\)) Unternehmen für den reinen Risiko-Kontext (\({}\tau = 0\)) bzw. Kontext der Ungewissheit nach Welter und Kim (2018) ist in den Abbildungen 3.13a bzw. 3.13b ersichtlich. Die Darstellungen sind Spezialfälle von 3.11 für die Extremfälle \({}\tau = 0\) und \({}\tau = 1\). Für den Fall, dass \({}\tau = 0\) ist, zeigt sich, dass effektuativ agierende Unternehmen (\({}\varrho = 2\)) im Mittel höhere Leistungswerte erzielen als kausal handelnde Unternehmen (\({}\varrho = 8\)). Die Leistungswerte bei \({}\varrho = 2\) fallen mit größer werdenden \({}\lambda \) zunächst schwach, bis sie anschließend wieder progressiv wachsen. Die Leistungswerte bei \({}\varrho = 8\) weisen ein ähnliches Verhalten auf, wobei diese bei großen Werten von \({}\lambda \) vergleichsweise schneller progressiv wachsen als die Leistungswerte des effektuativen Unternehmens. Die Leistungswerte bei \({}\varrho = 8\) sind für Werte von \({}\lambda \) nahe 1 größer als bei \({}\varrho = 2\). Demnach sind kausal agierende Unternehmen in stark risikoorientierten Kontexten erst mit hoher Vorhersagefähigkeit leistungsfähiger als effektuative Unternehmen.

In sehr ungewissen Kontexten (\({}\tau = 1\)) bleiben die Leistungswerte bei \({}\varrho = 2\) mit variierendem \({}\lambda \) konstant. Während die Leistungswerte für \({}\varrho = 8\) im Vergleich zu \({}\varrho = 2\) für Werte von \({}\lambda < 0.5\) kleiner sind, wachsen diese anschließend mit größer werdendem \({}\lambda \) progressiv an. Ab \({}\lambda > 0.9\) werden mit \({}\varrho = 8\) in jedem Fall höhere Leistungswerte erzielt als mit \({}\varrho = 2\). Bei hoher Präzision der Vorhersage von kausal handelnden Unternehmen sind in sehr ungewissen Kontexten (\({}\tau = 1\)) die Leistungswerte des kausal handelnden dem des effektuativ agierenden Unternehmens deutlich überlegen, wenngleich im Falle von Effectuation im Mittel bessere Leistungswerte im Gegensatz zu Causation erzielt werden. Diese Erkenntnis würde dem bisherigen Verständnis zu Effectuation widersprechen, lässt sich jedoch damit begründen, dass „in uncertain environments, causation outperforms effectuation at a lower threshold not because causation is much better in uncertain contexts but because effectuation performs worse in uncertain contexts than in risky ones.“ (Welter & Kim 2018, S. 108). Anders ausgedrückt ermöglicht Effectuation Entrepreneuren durch Experimentierfreudigkeit leistungsfähig zu sein. Kausale Logik hingegen zeigt, wie präzise die Vorhersagefähigkeiten von Entrepreneuren sind. Sind Entrepreneure in der Lage gute Vorhersagen zu treffen, erzielen sie auch gute Leistungswerte. Fehlt kausal handelnden Entrepreneuren diese Fähigkeit, werden sie wahrscheinlich von effektuativ handelnden Entrepreneuren überboten. Zum Vergleich der Simulationsergebnisse sind in 3.14a und 3.14b die Resultate der korrespondierenden replizierten Implementierung ersichtlich.

Abb. 3.14
figure 14

Simulationsergebnisse der replizierten Implementierung bei Änderung der Vorhersagefähigkeit (\({}\lambda \))

In eher risikoreichen Umgebungen (\({}\tau = 0\)) verhalten sich kausal agierende Unternehmen (\({}\varrho = 8\)) in der replizierten Simulation ähnlich wie in den Ergebnissen von Welter und Kim (2018). Ab Werten von \({}\lambda > 0.5\) steigen die Leistungswerte progressiv an. Abweichungen ergeben sich jedoch im Spektrum der erreichten Leistungswerte. Während bei Welter und Kim (2018) Werte zwischen nahe unterhalb 0.6 und nahe 0.8 erreicht werden, reichen die Leistungswerte des kausal handelnden Unternehmens der replizierten Simulationsergebnisse lediglich von nahe 0.64 bis nahe 0.76. Die Ergebnisse der replizierten Implementierung des effektuativ agierenden Unternehmens weichen ebenfalls von den Resultaten der Simulation von Welter und Kim (2018) ab. Entsprechend ist bei den replizierten Simulationsergebnissen in risikoreichen Kontexten, anders als bei den Ergebnissen von Welter und Kim (2018), kein progressiver Kurvenverlauf ersichtlich. Effektuative Unternehmen reagieren in ihrer Leistungsfähigkeit folglich nicht signifikant auf einen Anstieg der Vorhersagefähigkeit. Dies wiederum hat zur Folge, dass kausale Unternehmen, im Fall der replizierten Simulation, bereits bei kleineren Werten von \({}\lambda \) höhere Leistungswerte erzielen als effektuative Unternehmen im Vergleich zu Welter und Kim (2018). Im Gegensatz zu Welter und Kim (2018) erreicht das kausale Unternehmen der replizierten Simulation bereits bei kleineren Werten von \({}\lambda \) größere Leistungswerte als das effektuative Unternehmen.

Die Streuung der Leistungswerte bei Variation von \({}\lambda \) kann in Abbildung 3.15 nachvollzogen werden. Im Fall, dass \({}\varrho = 8\) ist, nimmt die Streuung der Leistungswerte mit steigendem \({}\lambda \) zu. Die in den Abbildungen abgetragenen Whisker spiegeln den 1.5-fachen Interquartilsabstand wider. Verlängern sich die Whisker, steigt auch die Streuung der Werte. Die in den Boxes zu findenden schwarzen Linien repräsentieren den Median der aus der Simulation für unterschiedliche \({}\lambda \) erhaltenen Leistungswerte. Die Boxes selbst geben die Spannweite des oberen und unteren Quartils an. Schwarze Kreise symbolisieren Ausreißer, die außerhalb des 1.5-fachen Interquartilsabstandes – ausgehend vom unteren bzw. oberen Quartil – gelegen sind.

Abb. 3.15
figure 15

Streuung der Simulationsergebnisse der replizierten Implementierung bei Änderung der Vorhersagefähigkeit (\({}\lambda \))

Die Ergebnisse von Welter und Kim (2018) für variierenden Parameter \({}\lambda \) und \({}\tau = 0\) können nicht vollumfänglich reproduziert und bestätigt werden.

Für stark ungewisse Kontexte (\({}\tau = 1\)) weisen effektuativ und kausal handelnde Unternehmen in den Ergebnissen von Welter und Kim (2018) und der replizierten Implementierung ein ähnliches Verhalten auf, wie in den Abbildungen 3.13b und 3.14b ersichtlich ist. Für effektuative Unternehmen hat die Variation der Vorhersagefähigkeit keinen wesentlichen Einfluss auf die Höhe der Leistungswerte. Lediglich ein leichter Anstieg der Leistungsfähigkeit geht mit wachsendem \({}\lambda \) einher. Tendenziell erzielen das effektuative und kausale Unternehmen im replizierten Fall höhere Leistungswerte als bei Welter und Kim (2018). Für den Fall, dass sich effektuative und kausale Unternehmen in einer ungewissen Umgebung befinden (\({}\tau = 1\)), kann deren grundsätzliches Verhalten bei variierender Vorhersagefähigkeit bestätigt werden.

Auswirkungen bei Änderung des Grades der Ungewissheit

Der Einfluss von Risiko bzw. Ungewissheit (\({}\tau \)) auf die Leistungsfähigkeit effektuativer (\({}\varrho =2\)) und kausaler (\({}\varrho =8\)) Unternehmen für verschiedene Werte der Vorhersagefähigkeit (\({}\lambda = 0\), \({}\lambda = 0.5\) und \({}\lambda = 1\)) ist in Abbildung 3.16 dargestellt. Es wird deutlich, dass mit variierendem \({}\tau \) für \({}\varrho = 2\) generell höhere Leistungswerte als bei \({}\varrho = 8\) erzielt werden, für den Fall, dass \({}\lambda = 0\) (vgl. 3.16a) und \({}\lambda = 0.5\) (vgl. 3.16b) ist. Ist \({}\lambda = 1\) (vgl. 3.16c) werden bei \({}\varrho = 8\) für alle abgetragenen \({}\tau \) höhere Leistungswerte erreicht, als bei \({}\varrho = 2\). Es wird zudem deutlich, dass, unabhängig von \({}\lambda \), die Werte bei \({}\varrho = 2\) und \({}\varrho = 8\) von \({}\tau = 0\) zu \({}\tau = 0.2\) jeweils vergleichsweise stark fallen und für \({}\tau > 0.2\) wieder wachsen. Effektuativ handelnde Unternehmen erreichen bei schlechter (\({}\lambda = 0\)) und mittlerer (\({}\lambda = 0.5\)) Präzision der Vorhersagefähigkeit von sehr risikoorierentierten (\({}\tau = 0\)) bis sehr ungewissen (\({}\tau = 1\)) Kontexten bessere Leistungswerte als kausal agierende Unternehmen. Lediglich bei hoher Präzision der Vorhersagefähigkeit schneiden kausal agierende Unternehmen besser als effektuative Unternehmen ab.

Abb. 3.16
figure 16

Simulationsergebnisse der replizierten Implementierung bei Änderung der Vorhersagefähigkeit (\({}\lambda \))

Effektuative wie kausale Unternehmen erzielen, unabhängig von ihrer Vorhersagefähigkeit, die höchsten Leistungswerte in sehr risikoorientierten (\({}\tau = 0\)) und sehr ungewissen (\({}\tau = 1\)) Kontexten.

Die Untersuchungsergebnisse der replizierten Simulation bei Variation des Parameters \({}\tau \) zur Steuerung der Ungewissheit bzw. des Risikos unter Beachtung unterschiedlicher Werte für den Vorhersagefähigkeitsparameter \({}\lambda \) (0, 0.5, 1) sind in den Abbildungen 3.17a, 3.17b und 3.17c dargestellt. Wie auch bei den Resultaten von Welter und Kim (2018) erzielen effektuative Unternehmen der replizierten Simulation bei \({}\lambda = 0\) und \({}\lambda = 0.5\) und variierendem \({}\tau \) in jedem Fall höhere Leistungswerte als kausal agierende Unternehmen; bei hoher Vorhersagefähigkeit (\({}\lambda = 1\)) schneiden kausal handelnde Unternehmen generell besser ab. Deutliche Unterschiede ergeben sich bei Betrachtung des Verlaufs der Leistungswerte mit wachsendem \({}\tau \). Die Leistung effektuativer und kausaler Unternehmen fällt zunächst mit wachsendem \({}\tau \) und steigt dann wieder wie in 3.17 deutlich wird. Im Falle von Welter und Kim (2018) vollzieht sich der Leistungsabfall bereits zwischen den Werten für \({}\tau \) von 0 und 0.2. Für \({}\tau = 0\) werden für \({}\varrho = 2\) und \({}\varrho = 8\) die höchsten Leistungswerte erzielt (vgl. Abbildung 3.16). Die Ergebnisse der replizierten Implementierung zeigen ein anderes Verhalten. Ein abrupter Leistungsabfall für Werte von \({}\tau \) zwischen 0 und 0.2 lässt sich nicht beobachten. Vielmehr fallen die Leistungswerte bis näherungsweise \({}\tau = 0.5\) und steigen danach mit derselben Intensität wieder an. Grundsätzlich zeigen die Ergebnisse für effektuative und kausale Unternehmen bei Welter und Kim (2018) und der replizierten Implementierung ein ähnliches Verhalten. Signifikante Unterschiede ergeben sich bei Betrachtung der Differenz von Leistungswerten für aufeinanderfolgende Werte von \({}\tau \). Kausale und effektuative Agenten der replizierten Simulation reagieren entsprechend weniger sensibel auf Änderung des Risikos bzw. der Ungewissheit als bei Welter und Kim (2018).

Abb. 3.17
figure 17

Simulationsergebnisse der replizierten Implementierung bei Änderung der Vorhersagefähigkeit (\({}\lambda \))

Diskussion der Simulationsergebnisse

Grundsätzlich ist festzustellen, dass Effectuation so lange besser als kausale Logik ist, bis ein Entrepreneur leistungsstarke Entscheidungskonfigurationen mit hoher Akkuratesse voraussagen kann. In sehr ungewissen Kontexten erzielen kausal handelnde Entrepreneure mit stark ausgeprägten Vorhersagefähigkeiten bessere Leistungen als effektuativ handelnde Entrepreneure.

Welter und Kim (2018) konstatieren, dass die Leistungsfähigkeit – unabhängig vom verwendeten Vorgehen – am größten ist, wenn die Umgebung nicht von Ungewissheit geprägt ist. Diese Einschätzung kann auf Grundlage der Ergebnisse der replizierten Implementierung nicht bestätigt werden. Die höchsten Leistungswerte werden bei ausschließlich ungewissen und ausschließlich risikoorientierten Umgebungen erreicht. Die Erkenntnis aus den replizierten Simulationsergebnissen, dass die Leistungswerte nach der Einführung von Ungewissheit zunächst fallen, um anschließend wieder mit dem annähernd gleichen Anstieg zu steigen, deckt sich mit den Aussagen von Welter und Kim (2018).

3.2.3 Kritische Einordnung der Simulationsansätze

Mit Hilfe der deskriptiven Analyse der effektuativen Simulationsmodelle konnte die Grundlage für die kritische Evaluierung der Ansätze von Mauer et al. (2017) und Welter und Kim (2018) geschaffen werden. Die Überführung der Verfahren in mathematische Modelle folgt den konzeptuellen Validierungsprinzipien von Sargent (2013) und ermöglicht so die notwendige Transparenz für die Interpretation der Simulationsergebnisse. Die formalisierte Darstellung der Ansätze liefert erste Erkenntnisse darüber, inwieweit effektuatives Entscheidungsverhalten modelliert werden kann.

Aufbauend auf den mathematischen Modellbeschreibungen stellen die Algorithmen 1 und 2 einen weiteren Schritt zur von Schlesinger et al. (1979) geforderten konzeptuellen Modellformalisierung dar. Die Algorithmen dienen als Basis für die Implementierung der Simulationsmodelle, welche wiederum die Voraussetzung für die Erzeugung der replizierten Ergebnisse sind. Durch Vergleich der Simulationsergebnisse wird die Verifikation der Modelle ermöglicht.

        Die Ergebnisse von Mauer et al. (2017) und Welter und Kim (2018) sowie der replizierten Simulationen zeigen, dass Effectuation im Gegensatz zur kausalen Strategie in einer vorrangig ungewissen Umgebung effizienter ist. Diese Beobachtungen decken sich mit den bisherigen Erkenntnissen aus der Effectuation-Forschung (Grégoire & Cherchem, 2019; Read, Dew et al., 2009). Die Modellierung von Ungewissheit ist in den in Kapitel 3 vorgestellten Arbeiten zentral. Zur weiteren Untersuchung entrepreneurialen Verhaltens ist die Umgebungsmodellierung von Mauer et al. (2017) und Welter und Kim (2018) durch weitere Merkmale gekennzeichnet.

Tragend für die Simulationsmodelle von Mauer et al. (2017) und Welter und Kim (2018) sind die verschiedenen Kontexte, in denen entrepreneuriale Agenten agieren. Mauer et al. (2017) und Welter und Kim (2018) untersuchen hierbei die Leistungsfähigkeit von effektuativ und kausal handelnden Agenten. Während Mauer et al. (2017) die Leistungsunterschiede im Zusammenhang mit Informationsisotropie, Ziel-Ambiguität und Ungewissheit beleuchten, legen Welter und Kim (2018) den Schwerpunkt auf eine ungewisse bis risikoorientierte Umgebung sowie die Vorhersagefähigkeit der Agenten. Die Analyse der Ansätze in Kapitel 3 gibt Aufschluss darüber, dass effektuatives Entscheidungsverhalten unmittelbar durch die Umgebung, in der sich ein Entrepreneur befindet, beeinflusst wird.

Die Interaktion der Agenten mit der jeweiligen Umgebungssituation basiert auf einem statischen Entscheidungsverhalten. Mauer et al. (2017) präsentieren für effektuativ sowie kausal handelnde Agenten verschiedene Vorgehen. Kausale Agenten passen flexible Produktvektorkomponenten anhand einer Stichprobe der momentanen Nachfrage an. Effektuative Agenten hingegen nehmen diese Anpassung aufgrund der Kommunikation mit dem Partnernetzwerk vor. Welter und Kim (2018) verwenden für kausal wie auch effektuativ handelnde Agenten das Hill-Climb-Verfahren (Csaszar & Siggelkow, 2010; Rivkin, 2000). Dieses Vorgehen ist dadurch gekennzeichnet, dass ein Agent bestrebt ist sein Leistungsniveau bei jeder Entscheidung zu verbessern, auch wenn dies langfristig nicht zwangsläufig zum bestmöglichen Leistungsniveau führt. Bisherige Modellansätze fokussieren demnach nicht auf das Lernverhalten der Agenten.