Zusammenfassung
In diesem Kapitel wird aufbauend auf den — in den zuvor beschriebenen theoretischen Modellen gewonnenen — grundlegenden Zusammenhängen ein Framework1 für die Beurteilung bzw. Planung von Unternehmensstrategien in De-facto-Standardisierungswettbewerben entwickelt. Ziel ist es, in Abhängigkeit sowohl unternehmensinterner als auch -externer Situationsdeterminanten inhaltlich konkrete Aussagen zu strategischen Wettbewerbsmaßnahmen in De-facto-Standardisierungsprozessen abzuleiten und auf diese Weise die in der Praxis zu beobachtenden, von Unternehmen gewählten Standardisierungsstrategien zu erklären.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Preview
Unable to display preview. Download preview PDF.
Literatur
Dieser Ausdruck ist von David Teece geprägt, der für die Erfolgswahrscheinlichkeit von Strategien für technologische Innovationen zwei Arten von Komplementaritäten unterscheidet. Dies sind zum einen die hier betrachteten „complementary assets“ oder sogenannten „supplier complementarities” und zum anderen die „buyer complementarities“, welche die Bedeutung von Komplementärprodukten, und somit die Bedeutung indirekter Netzwerkeffekte, umfassen und unter Gliederungspunkt I1I.1.2.3 behandelt werden. Vgl. hierzu Teece (1992), S. 183.
Mansfield/Schwartz/Wagner haben in einer Studie herausgefunden, daß ca. 60 Prozent der patentierten Innovationen ihrer Stichprobe innerhalb von 4 Jahren imitiert wurden. Vgl. Mansfield/ Schwartz/Wagner (1981). Darüberhinaus hat Mansfield in einer späteren Studie herausgefunden, daß Konkurrenten in der Regel innerhalb von 12 bis 18 Monaten über detaillierte Informationen hinsichtlich neuer Produkt-und Prozeßentwicklungen verfügen. Vgl. Mansfield (1985).
Vgl. zu den folgenden Erläuterungen Rogers (1983), S. 211–234. Die im folgenden aufgeführten Hypothesen zur Wirkungsweise der von Roger definierten Attribute einer Innovation sind in empirischen Untersuchungen mehrfach überprüft und größtenteils bestätigt worden. Vgl. Rogers (1983), S. 221 und 239.
Diese zweite Phase bezeichnen Abernathy/Utterback ( 1978, S. 40) auch als spezifische Phase. Eine ähnliche Einteilung der Branchenentwicklung, allerdings in drei Phasen, nehmen Hariharan/ Prahalad (1994) vor.
Vgl. hierzu auch Clark (1985), der in diesem Zusammenhang von seinem De-maturity-Konzept spricht. Ähnlich beschreibt auch das S-Kurven-Konzept des Beratungsuntemehmens McKinsey die Zunahme der Leistungsfähigkeit von Technologien S-Kurven-förnúg, und die Abfolge unterschiedlicher Kurven diskontinuierlich und überlappend. Vgl. Krubasik (1982) und (1984).
Die Stärken-/Schwächenanalyse ist ein in der Strategielehre traditionelles Instrument um die Erfolgsaussichten von Unternehmensstrategien beurteilen zu können. Vgl. Kreikebaum (1993), S.46/47 und 64.
Grindley (1992 und 1995 ) listet bereits zahlreiche Selektionsbedingungen zur Strategiewahl auf, eine systematische Erklärung ihrer Wirkungen auf den Erfolg der Strategien mit Hilfe theoretischer Konzepte wird allerdings nur ansatzweise vorgenommen. Auch konzentriert sich Grindley im wesentlichen auf die vier genannten Positionierungsstrategien. Hier soll dagegen insbesondere bei der Wahl des Zugangs eine differenziertere Betrachtung erfolgen.
betrugen die Kosten von Compaq für F and E sechs Prozent vom Umsatz. Vgl. Grindley (1995), S. 148.
Vgl. hierzu die Personal-Computer-Fallstudie in Grindley (1995), S. 131ff, hier S. 148.
Vgl. Garud/Kumaraswamy (1993), S. 354, sowie Adams/Brock (1982).
Der Ausdruck „co-opetition“ geht zurück auf Ray Noorda, dem Gründer des Netzwerk-SoftwareUnternehmens Novell, der in einem Artikel der Zeitschrift Electronic Business Buyer feststellte: „You have to compete and cooperate at the same time”. Brandenburger/Nalebuff haben den Ausdruck in Anlehnung an Noorda als Titel ihres Strategiebuches „Co-Opetition“ gewählt. Vgl. Brandenburger/Nalebuff (1996), S. 4/5.
Vgl. Gallini (1984), S. 931. Vgl. ferner Gold (1975), S. 28 und Ansoff (1987), S. 34f. In ähnlicher Weise untersuchen Katz/Shapiro die Wirkungsweise von Lizensierungsstrategien auf Innovations-anreize von Wettbewerbern. Vgl. Katz/Shapiro (1985b) und (1987).
Vgl. zum Konzept der guten Konkurrenten Porter (1992), S. 285–287.
Katz/Shapiro (1985a), S. 431. Katz/Shapiro haben diesbezüglich allerdings keine weitere strategische Analyse vorgenommen, da dies nicht im Focus ihrer Veröffentlichung stand.
Gabel (1993), S. 18 sowie Farrell/ Saloner (1986), S. 172
Für die historische Entwicklung der Videorecordertechnologie vergleiche im folgenden Rosenbloom/Cusumano (1987); Cusumano/Mylonadis/Rosenbloom (1992); Gabel (1993), S. 63–110 sowie für den europäischen Markt Heß (1993), S. 53–90.
Bei dem VTR handelte es sich, wie der Name Video Tape Recorder schon sagt, um ein Gerät, bei dem ein 2-Zoll-Band, ähnlich einem Tonbandgerät, offen eingelegt wurde. Vgl. Rosenbloom/ Cusumano (1987), S. 54.
Neben den auf Magnetband basierenden Videorecorder-Systemen gab es lediglich für die Wiedergabe bespielter Bildträger konzipierte Technologien. So entwickelte RCA eine Bildplattentechnologie, das sogenannte Selecta-Vision-Projekt, CBS die Electronic Video Recording Technologie (EVR). Die EVR-Technologie wurde bereits nach einem Produktionsjahr 1972 mit einer Abschreibung in Höhe von 30 Millionen Dollar eingestellt. Weitere später vorgestellte Bildplattensysteme waren die von Philips entwickelte Laserdisc sowie die von Pioneer eingeführte Laser-VisionTechnologie. Der Vorteil dieser Technologie wurde in wesentlich geringeren Kosten zur Bereitstellung von Software gesehen. Alle Videoplattensysteme blieben allerdings ohne kommerziellen Erfolg. Siehe Gabel (1991), S. 62; Gabel (1993), S. 70–74 sowie Graham (1986). Interessant sind in diesem Zusammenhang die derzeitigen Bemühungen, die Digital-Video-Disc als Standard zu etablieren. Vgl. hierzu die Ausführungen in Abschnitt II1.2. 1. 3.
Die Höhe der Lizenzgebühren betrug nur 3,5 Prozent vom Umsatz. Vgl. Gabel (1993), S. 99.
Auch Sony hatte Mitstreiter im Standardisierungswettbewerb gefunden, so z. B. Sanyo und Toshiba in Japan, Zenith in den USA sowie Fischer und Neckermann in Europa. Allerdings wurden diese Untemehmen erst relativ spät (1977) als Partner gewonnen und bewirkten damit nicht die Signal-und Vertriebswirkung wie die Allianzen um VHS.
Für die Berechnung der Marktanteile wurden die jährlichen Produktionszahlen japanischer Hersteller an Videorecordern zugrunde gelegt. Video 2000 ist daher unberücksichtigt. Für die Marktentwicklung in Deutschland unter Einbezug von Video 2000 siehe Heß (1993), S. 53–90.
In diesem Zusammenhang ist der Standardisierungsprozeß im Camcorder-Markt, bei dem sich eine Marktteilung zwischen dem von Sony entwickelten Acht-Millimeter-Standard und dem von JVC entwickelten VHS-C-Standard herausgebildet hat, ein interessantes Vergleichsbeispiel. Die Ursache für die sich hier im Gegensatz zum Videorecorder-Markt ergebende Marktteilung liegt in der wesentlich höheren Bedeutung des Basisnutzens der Technologie in Form eigener Filmaufnahmen sowie der Möglichkeit von Produktdifferenzierungen. Die von Sony eingeführten Geräte im AchtMillimeter-Standard weisen Vorteile in bezug auf die Bildqualität, die Aufzeichnungsdauer sowie die Abmessungen der Geräte auf. VHS-C hat Vorteile in bezug auf die Kompatibilität zu stationären VHS-Videorecordern, die über eine sogenannte Adapterbox hergestellt wird, mittels derer VHS-C-Kassetten in einem gewöhnlichen VHS-Recorder abgespielt werden können. Vgl. Gabel (1993), S. 85–90.
Morita/Ibuka zitiert nach Cusumano/Mylonadis/Rosenbloom (1992), S. 67/68.
Eigene Berechnung aus Produktionsdaten in Cusumano/Mylonadis/Rosenbloom (1992), S. 55.
Unter diesen Lizenznehmern war das Unternehmen Hitachi mit einem Produktionsanteil von 19 Prozent im Jahre 1984 der größte Konkurrent, der seinerseits zum Teil OEM-Verträge mit weiteren Lizenznehmern abschloß. Für eine Auflistung der Lizenznehmer des VHS-Standards siehe Cusumano/Mylonadis/Rosenbloom (1992), S. 73.
Nach der Begriffsbestimmung waren in den achtziger Jahren Microcomputer als Computer definiert, deren Preise zwischen 500 und 10.000 US-Dollar lagen. Ziel war eine Abgrenzung zu Heimcomputern am unteren Ende bzw. Workstations am oberen Ende. Der Begriff PC oder Personal-Computer geht streng genommen auf den 1981 eingeführten Microcomputer von IBM zurück. Vielfach wird allerdings der Begriff des Personal-Computers synonym zu dem des Microcomputers verwendet. Vgl. Gabel (1993), S. 59.
Die Ausführungen zur Entwicklung der Personal-Computer-Branche basieren auf den Arbeiten von Gabel (1993), Kapitel 2; Grindley (1995), Kapitel 6; Grindley/McBryde (1990); Heß (1993), Kapitel 7, sowie Linzmeyer (1999).
Zwecks Erreichung einer schnellen Adoption der Technologie betrieb Apple die aktive Umwerbung weiterer Softwarehäuser zur Entwicklung von zusätzlichen Anwendungen. Apple hat in diesem Zusammenhang den Begriff „evangelism“ geprägt. Apple hatte eigens Mitarbeiter wie den späteren Bestsellerautor des gleichnamigen Buches Guy Kawasaki, die als „evangelists” aktiv die Anbieter von Komplementärprodukten von der eigenen Technologie überzeugen sollten. Vgl. Linzmeyer (1999), S. 76.
Vgl. zur Geschichte des IBM PC Rodgers/Shook (1986) sowie Chposky/Leonsis (1988).
Die durchschnittliche Einarbeitungszeit wurde für Apple-Computer mit ca. 20 Minuten angegeben, gegenüber mehreren Stunden beim IBM-Standard. Vgl. Davidson, (1986) S. 214.
Porter spricht in diesem Zusammenhang vom Konzept der „guten Konkurrenten“. Vgl. Porter (1992), S. 278.
Porter spricht entsprechend von „schlechten Konkurrenten“. Vgl. Porter (1992), S. 278.
Vgl. Prahalad/Hamel (1990), S. 85/86; Beard/Easingwood (1996), S. 90.
Vgl. hierzu Hill (1997), S. 12/13, der als Beispiel die strategische Allianz zwischen Sony und Philips bei der Entwicklung der CD-Technologie anführt. Philips verfügte gegenüber Konkurrenzansätzen von Telefunken, JVC und Sony über das bessere Basisdesign der Technologie. Sony, dessen Technologiedesign dem von Philips am ähnlichsten war, hatte Vorteile in bezug auf das Korrekturverfahren. Philips und Sony gingen in der Folge eine strategische Allianz zur Entwicklung und Vermarktung der CD-Technologie ein, die zur Etablierung ihrer Technologie als Defacto-Standard führte. Anzumerken ist, daß Philips und Sony darüber hinaus die gemeinsame Technologie anderen Unternehmen im Rahmen von Lizenzverträgen zugänglich machten.
Axelrod/Mitchell/rhomasBennettBruderer sprechen entsprechend von „distant rivals“. Vgl. Axelrod u. a. (1995), S. 1496.
Das bedeutet nicht zwingend, daß alle Komponenten von einem Unternehmen allein hergestellt werden müssen. Werden einzelne Bauteile von Zulieferern produziert, so arbeiten diese in „handin-glove fashion“ mit dem Systemhersteller zusammen. Die Schnittstellen-Standards sind jedoch nicht offengelegt, so daß der Marktzutritt von Drittfirmen verhindert wird. Vgl. Farrell/Monroe/ Saloner (1998), S. 144.
Verwirrung stiftet in diesem Zusammenhang die mit der Herkunft des Begriffes „open system“ verbundene Interpretation, daß es sich zwangsläufig um nicht eigentumsrechtlich geschützte Standards handelt. Der Begriff open systems geht zurück auf das in den 70er Jahren von der ISO entwickelte Open-System-Interconnection(OSI)-Modell zur Datenübertragung, das 1984 als weltweiter Standardisierungsvorschlag festgeschrieben wurde. Es handelt sich hierbei um ein Referenzmodell zur Unterteilung von Nachrichtenbestandteilen in verschiedene Informationsbestandteile (sogenannte layer), um den Informationsaustausch in Netzen zu regeln. Da dieser Standard von der ISO entwickelt wurde, ist er frei zugänglich und nicht proprietär. Siehe Baer/Pinegger (1991), Abschnitt 3.2 und Conrads (1996), S. 68–84. Ähnlich definierte das Unix X/Open Konsortium, heute mit der Open Software Foundation (OSF) zu der Open Group fusioniert, open systems als „systems and software environments based an standards which are vendor independent and commonly available”. Vgl. ShapiroNarian (1999a), S. 200.
Grove (1996), S. 52. Als Vorteil einer „closed architecture“ wird dagegen die bessere Abstimmung der Komponenten gesehen, die zu einer höheren Performance führen kann. Dieses Argument führt insbesondere Apple für sein Festhalten an der geschlossenen Architektur ihrer Computer an. Vgl. hierzu Farrell/Monroe/Saloner (1998), S. 148.
Vgl. Morris/Ferguson (1993), S. 90 und 92. Ironischerweise hat ausgerechnet Bill Gates (Microsoft) 1985 Apple gedrängt, die Hardware zu lizensieren und sogar Partner-Unternehmen vorgeschlagen. Zu jener Zeit sah Bill Gates die Apple-Plattform als superior an, und Microsoft war der wichtigste Lieferant von Anwendungssoftware für Apple-Computer. Statt diesem Rat zu folgen, lizensierte Apple wenige Monate später auf Druck von Bill Gates, der für die IBM-PC-Plattform eine zu Apple-Computem ähnliche Benutzeroberfläche schaffen wollte, das Macintosh-Betriebssystem und legte hiermit den Grundstein für die Windows-Oberfläche, die zunehmend die Differenzierungsvorteile von Apple und somit die Aufrechterhaltung des Nischenstandards gefährden sollte. Bill Gates hatte die Lizenz unter der Drohung erhalten, die Entwicklung der Anwendungsprogramme Word und Excel für Apple einzustellen. Vgl. zur Geschichte von Apple Linzmayer (1999). Hier insbesondere S. 135–139 und S. 193–200.
Vgl. zur Geschichte der Lizenzpolitik von Apple Linzmayer (1999), S. 193–206.
Für eine wohlfahrtstheoretische Analyse von Konvertern siehe Farrell/Saloner (1992).
So wird von Rathsburg das Argument angeführt, daß bei Verwendung von Konvertern der Datentransfer zwischen Computern bis zu 100mal langsamer sein kann. Vgl. Rathsburg, (1988).
Vgl. hierzu die Ausführungen in Abschnitt II.3.4.1 sowie Xie/Sirbu (1995), S. 922/923 und Besen/ Farrell (1994), S. 126 /127.
Während Porter ( 1991, 1992) von den fünf Wettbewerbskräften spricht, d. h. der Verhandlungsmacht der Zulieferer, der Verhandlungsmacht der Abnehmer, der Bedrohung durch Substitute, der Bedrohung durch neue Konkurrenten sowie der Rivalität unter den bestehenden Wettbewerbem, umfaßt das Framework von Brandenburger/Nalebuff als wesentliche Elemente der Branchenstruktur Zulieferer, Kunden, Wettbewerber und „complementors“.
Vgl. hierzu Church/Gandal (1996). Ähnlich sieht Schilling ( 1998, S. 275/276) in einem fehlenden Komplementärproduktangebot einen Hauptgrund für den „technological lock out“, also die gescheiterte Etablierung einer Technologie.
Vgl. hierzu Shapiro/Varian (1999b), S. 23 die in diesem Zusammenhang von der Strategie des „commoditize complementary products“ sprechen.
John Doerr, Partner der Venture-Capital-Firma Kleiner Perkins Caufield and Buyers, welche Netscape mit Risiko-Kapital finanzierte, wies diese Zurückhaltung in seiner Gastrede während eines Seminars an der Stanford-Universität im Herbst 1998 als einen der größten Fehler von Netscape aus.
Vgl. Church/Gandal (1996), S. 333/334 und Brandenburger/Nalebuff (1995), S. 65.
Solche Exklusivverträge werden allerdings sehr kritisch in bezug auf Konflikte mit dem Wettbewerbsrecht betrachtet. So sieht z. B. Shapiro in den Exklusivverträgen von Nintendo einen Verstoß gegen das Wettbewerbsrecht. Vgl. Shapiro (1999a) sowie (1999b).
Cusumano/Yoffie (1998), S. 141 sprechen in diesem Zusammenhang von einer „free, but not free“ Taktik.
In der Literatur wird der Verkauf des gleichen Produkts zu mit Kundensegmenten variierenden Preisen auch als Preisdiskriminierung dritten Grades bezeichnet. Vgl. Varian (1989), S. 601.
Vor diesem Hintergrund stellen Dybvig/Spatt eine Alternative zur Diskussion, die das kritischeMasse-Problem in ähnlicher Weise lösen soll, die sog. Versicherungslösung. Nach dem Vorschlag dieser Autoren würde der Anbieter eines Netzwerkeffektgutes den Nutzern eine Versicherung schenken, die Schadenersatz leistet, wenn sich die Technologie nicht als Standard durchsetzt. Die Wirkung besteht wie beim Leasing in einer Reduzierung der Irreversibilität der Investition. Siehe hierzu Dybvig/Spatt (1983).
Katz/Shapiro (1985a), S. 425. Hervorhebung durch den Verfasser.
Eine ausführliche Diskussion der Rolle von Marktsignalen bei der Etablierung von Kompatibilitätsstandards im Rahmen der Wettbewerbsstrategie liefern Steinmann/Heß (1993).
Einen über die Standardisierung von Netzwerkeffektgütem hinausgehenden Überblick über Produktvorankündigungen geben Lilly/Walters (1997).
In der Literatur wird diesbezüglich überwiegend die Auffassung vertreten, daß Produktvorankündigungen keine wettbewerbsfeindliche Maßnahme darstellen. Vgl. hierzu Fisher/McGowan/ Greenwood (1985), insbesondere S. 280/281.
Der Grundgedanke dieser auch als strategische Selbstbindung bezeichneten Maßnahme geht zurück auf Thomas C. Schelling (1960). Eine unterhaltsame Auseinandersetzung mit diesem Thema findet sich bei Dixit/Nalebuff (1991), Kapitel 6.
Vgl. die Ausführungen in Abschnitt 111.2.1.2.2.
Spence hat mit seinem 1977 erschienen Aufsatz „Entry, Capacity, Investment, and Oligopolistic Pricing“ die Diskussion um die Bedeutung von Produktionskapazitäten als strategisches Instrument in Gang gebracht. Eine eingehende modelltheoretische Auseinandersetzung mit dem Ziel der Herausarbeitung der Allokationswirkungen vor wohlfahrtstheoretischem Hintergrund nimmt Thum (1994) und (1995), Abschnitt 7.2 vor.
Author information
Authors and Affiliations
Rights and permissions
Copyright information
© 2001 Betriebswirtschaftlicher Verlag Dr. Th. Gabler GmbH, Wiesbaden, und Deutscher Universitäts-Verlag GmbH, Wiesbaden
About this chapter
Cite this chapter
Ehrhardt, M. (2001). Strategische Wettbewerbsmaßnahmen in De-facto-Standardisierungsprozessen. In: Netzwerkeffekte, Standardisierung und Wettbewerbsstrategie. Strategische Unternehmungsführung. Deutscher Universitätsverlag. https://doi.org/10.1007/978-3-322-91480-4_3
Download citation
DOI: https://doi.org/10.1007/978-3-322-91480-4_3
Publisher Name: Deutscher Universitätsverlag
Print ISBN: 978-3-8244-7350-2
Online ISBN: 978-3-322-91480-4
eBook Packages: Springer Book Archive