Schlüsselwörter

1 Einleitung

Im Mai 1975 präsentierte die populärwissenschaftliche Zeitschrift Scientific American auf der Titelseite einen programmierbaren 16-Bit-Mikrocomputer der Teledyne Systems Company. In der Beschreibung wurde erklärt, dass dieses winzige Gerät alle Aufgaben übernehmen könnte, für die bisher viel größere Maschinen eingesetzt wurden. Detailliert wurde der Aufbau erläutert, um den Leser*innen die Funktionsweise näherzubringen: „All told the system incorporates more than 100,000 transistors. It communicates with the outside world through 120 leads, 30 on a side, the ends of which are visible at the edges of the photograph.“ (Scientific American 1975, S. 4) Auch in der deutschen Wochenzeitschrift Der Spiegel wurde in dem Jahr begeistert von Mikrocomputern berichtet, „die nun wohl endgültig die elektronische Revolution in jede Fabrikhalle und jedes Büro, in die Arztpraxis und schließlich auch den privaten Haushalt tragen dürften“ (Heißes Produkt 1975, S. 230).

Trotz aller Revolutionsmetaphorik stand der Mikroelektronik noch ein langer Weg bevor, bis sie die Arbeitswelt tiefgreifend veränderte. Sie befeuerte zwar die Diskussionen über die Zukunft der Arbeit und die Automatisierung der Arbeitswelt, durchdrang aber die sozialen und technischen Arbeitsprozesse in der zweiten Hälfte des 20. Jahrhunderts noch nicht vollständig, sondern führte zu Teildigitalisierungen und -automatisierungen im Betrieb. Diese langen Prozesse der Durchdringung der Arbeit mit digitaler Technologie möchten wir in diesem Beitrag für die Arbeitswelt der Fabrik aufzeigen. Die Standardisierung von Arbeitsprozessen im Zuge der Einführung digitaler Technologien und die Etablierung neuer Formen der Informatisierung wurzeln in historischen Entwicklungen (Vgl. Pfeiffer und Nicklich in diesem Band). Unser Ziel ist es, zu verdeutlichen, wie die Mikroelektronik eine technische Grundlage geschaffen hat, um bereits bestehende Konzepte zur Automatisierung der Produktion weiterzuentwickeln und neue Konzepte zu formulieren, die bis heute wirken und nicht zuletzt auch die Voraussetzungen für Ideen von der Smart Factory geschaffen haben. Die Ergebnisse unserer historischen Forschung zur Fabrikarbeit und Automatisierung belegen aber auch, dass die technische Umsetzung schwieriger war als angenommen und die vorhandene Technik letztlich mit den theoretischen Konzepten nicht mithalten konnte.

Im Mittelpunkt steht somit die Frage, wie industrielle Arbeit von Menschen auf digitalisierte Fertigungsmaschinen und Computer übertragen und wie diese Umstellung verhandelt wurde. Dabei gilt es zu beachten, dass Innovationen sowohl technischer Natur als auch von sozialen Voraussetzungen geprägt sind. Zur Beantwortung gehen wir zunächst zurück in die 1950er Jahre und betrachten, wie die Einführung der NC-Steuerung mit der Vorstellung der Produktivitätssteigerung durch Beschleunigung zusammengebracht wurde. Anschließend widmen wir uns dem Einzug der Mikroelektronik in den 1970er Jahren und zeigen auf, wie die stete Verbesserung der Werkzeugmaschine hinter die neuen Muster der Fabrikorganisation und Fragen der Arbeitsqualität zurücktrat. Die Digitalisierung wird in dieser Zeit zum Leitbild, das die Vorstellungen produktionstechnischer Rationalisierung bis heute prägt.

Die Abwendung von traditionellen Werkzeugmaschinen und die Hinwendung zu computergestützten Techniken stellten sich weder damals noch heute als völlig neu dar. Es handelte sich auch zu keiner Zeit um eine technische Revolution, die schlagartige und disruptive Veränderungen in der Fertigung hervorrief. Im Gegenteil, die Digitalisierung der Fabrik erscheint viel kleinteiliger und weniger revolutionär oder gradlinig, als es Begriffe wie „Industrie 4.0“ implizieren (Heßler und Thorade 2019), und vollzog sich eher in graduellen Transformationsprozessen. Insofern betont die Geschichte der Digitalisierung in der Fabrik einmal mehr das ambivalente Verhältnis von Alt und Neu der Techniknutzung (König 1990, 1994; Edgerton 2008; Weber 2019). Letztlich fand die digitale Technik nur Eingang in bereits existierende Systeme der industriellen Fertigung, die Voraussetzungen für die digitale Wende geschaffen hatten.

Dabei weisen die Einführung verschiedener, neuer Werkzeugmaschinen in die Fertigung und die Automatisierungsversuche seit den 1950er Jahren auch immer wieder Gemeinsamkeiten auf. Diese betrafen die teilweise fehlende Akzeptanz durch Mitarbeiter*innen und Führungspersonen sowie den Mehraufwand und die hohen Kosten, die die Umstellung der industriellen Fertigung auf neue digitale Technik mit sich brachte. Darum werden im Folgenden auch die Praktiken der Fertigung und das Zusammenspiel von Mensch und Maschine herausgestellt. Die Konditionen werden ferner anhand der produktionstechnischen Veränderungen sowie den wirtschaftlichen Überlegungen in der Bundesrepublik untersucht. Zudem spielte der historische Kontext eine wichtige Rolle für die Digitalisierung der Arbeit in der Fabrik, denn auch Konsumverhalten, Individualisierung und eine beginnende Schnelllebigkeit der Konsumgüter unterstützten diese Prozesse (vgl. etwa Neumeier und Ludwig 2015; Reckwitz 2017). Wie der Technikhistoriker Karsten Uhl jüngst für die Computer-Numeric-Control-Maschinen (CNC-Maschinen) gezeigt hat, herrscht ein starkes „Kontrollnarrativ“ in der Geschichte der Automatisierung der Produktion vor, das nicht zuletzt auf die Fokussierung der zeitgenössischen soziologischen Studien, „häufig mit direktem Bezug auf den Historiker David Noble“ (Uhl 2021, S. 115), zurückzuführen ist.

Wir haben verschiedene ingenieurwissenschaftliche Fachzeitschriften, darunter die VDI-Zeitschrift (VDI-Z) und die ZWF - Zeitschrift für wirtschaftliche Fertigung, von den 1950er bis in die 1990er Jahre ausgewertet. Die in ihnen enthaltenen Berichte über die zeitgenössischen Arbeiten der produktionstechnischen Forschung verdeutlichen, dass die Computerisierung der Fabrik ein vielschichtiges Unterfangen war. Es lässt sich demnach nicht bestätigen, dass die Automatisierung primär dem Zweck diene, den Arbeiter*innen die Kontrolle über den Produktionsprozess entziehen zu wollen (Noble 1979, S. 18). Nobles Argument, dass die Ingenieur*innen menschlichen Tätigkeiten misstrauen und menschliche Entscheidungen als „menschliches Versagen“ (ebd.) auffassen würden, das es durch die technische Entwicklung zu eliminieren gelte, kann aus den betrachteten Zeitschriftenberichten nicht hinreichend gestützt werden. Vielmehr zeigen diese, dass neben Diskursen über die Kontrollierbarkeit der Maschinen überwiegend produktionstechnische Lösungen verhandelt wurden, mit denen auf konkrete ökonomische Probleme reagiert werden sollte. Dabei wird deutlich, dass die wirtschaftliche Gesamtsituation erheblich beeinflusste, wie über die Einführung von Computerisierung und Automatisierung diskutiert wurde.

Wie der Wirtschaftsinformatiker und Organisationsforscher Peter Brödner rückblickend herausstellte, wurde nämlich während der Automatisierungsschübe „[i]ronischerweise […] regelmäßig der hohe Wert impliziten Wissens, der Intuition, Kreativität und Handlungskompetenz menschlichen Könnens wiederentdeckt“ (Brödner 2018, S. 324). Tatsächlich begleitete die Frage nach dem Menschen in der Produktion kontinuierlich die Beschäftigung mit der Automatisierung der Fabrik. Die Diskurse verhielten sich wie ein „Pendelschlag: Einmal schlägt das Pendel in eine ausschließlich technikzentrierte Rationalisierungsstrategie aus und dann wiederum auf dieser Basis in eine menschzentrierte“ (Klitzke 1993, S. 109). Ob die Reduzierung der menschlichen Arbeit ein Vorteil für die Menschen im Sinne einer Befreiung oder ein Nachteil im Sinne einer Kontrolle und Entmachtung war, kann und soll in diesem Beitrag nicht abschließend beantwortet werden.

2 Take-off durch Numerische Steuerung

In den 1950er Jahren wurde den westdeutschen Werkstätten eine flächendeckende Rückständigkeit bescheinigt und deren Modernisierung als vordringliches Ziel der Industrie ausgegeben (Ambrosius 1993). Im Fokus standen Massenproduktion und Rationalisierung sowie die Möglichkeiten der Automatisierung, die bislang allenfalls in der Großindustrie verfolgt worden waren. Die mittelständischen Betriebe des Maschinenbaus hingegen, die in Deutschland ein großes industrielles Gewicht hatten, verfügten nur selten über eine modernere Maschinenausstattung. Ein Großteil der Betriebe arbeitete mit einem Maschinenbestand aus dem 19. Jahrhundert. Grundlegend hat die technikgeschichtliche Forschung gezeigt, dass für die produktionstechnische Forschung, die wirtschaftlichen und politischen Akteure in dieser Zeit die Massenproduktion das Maß der Dinge war und daher die meisten Innovationen und Initiativen darauf ausgerichtet waren, diese Produktionsform zu unterstützen. Einen wesentlichen Anteil an dieser Orientierung, die maßgeblich durch Entwicklungen in den USA angestoßen wurde, hatten die Programme zur Förderung der bundesdeutschen Industrie, die im Rahmen des Marshall-Plans aufgestellt worden waren (Schlombs 2019; Hachtmann und von Saldern 2010; König 2000, S. 76–90).

Die Fertigung in Deutschland war bis in die zweite Hälfte des 20. Jahrhunderts hinein ein zeitaufwendiger Arbeitsschritt, der in den Fabriken größtenteils Fachkräften oblag und dessen Abläufe stärker auf gewissenhafte Ausführung als auf schnelle, massenhafte Produktion ausgelegt waren. Die Arbeiter*innen folgten in den Werkstätten dabei einem detaillierten Fertigungsplan. Dieser wurde in den vorgelagerten Abteilungen der Produktionsvorbereitung von Ingenieur*innen und anderen gut ausgebildeten Fachkräften erstellt. In den Werkstätten setzten die Arbeiter*innen dann diese Fertigungspläne um, indem sie den Plan und die Zeichnungen lasen, die Maschinen einstellten und bedienten sowie Berechnungen und Korrekturen vornahmen. Jede dieser Aufgaben war in mehrere Arbeitsschritte unterteilt, wobei einige mithilfe manuell gesteuerter Maschinen, andere vollständig händisch ausgeführt wurden. Insbesondere das Einstellen von Maschinen erforderte Berechnungen und manuelle Korrekturen, die sowohl intellektuell anspruchsvoll als auch zeitaufwendig und fehleranfällig waren. Die Fehleranfälligkeit wurde dabei durch die repetitive Durchführung weiter verstärkt, weshalb in der Reduzierung dieser Tätigkeiten eine gute Möglichkeit gesehen wurde, Rationalisierungsreserven auszuschöpfen (Hirsch-Kreinsen 1993).

Die Überlegungen zur Beschleunigung und Vereinfachung setzten bei den Funktionsweisen der Werkzeugmaschinen an. Insbesondere ging es um die Weiterentwicklung der Technik und die Reduzierung des Anteils menschlicher Arbeit. In einem Artikel über die Automatisierung von Fräsmaschinen in der ZWF heißt es:

„Alle unter dem Stichwort ‚Automation‘ geführten Diskussionen haben sachlich zum Inhalt, daß Überlegungen angestellt werden, welche Maßnahmen zum Herabsetzen der Nebenzeiten und zum Ausschalten menschlicher Eingriffe in den Arbeitsablauf getroffen werden können [sic!].“ (Erdmann 1958, S. 257)

Ein gängiges Argument wird hier deutlich: So müsse die Auslastung der Maschinen verbessert werden, um die Produktivität grundlegend zu steigern. Als Ursache für die schlechte Auslastung galt eine nicht optimale Zusammenarbeit von Mensch und Maschine bzw. die physisch begrenzte Kapazität der Arbeitskräfte (Uhl 2019). Die Numerische Steuerung bzw. Numeric Control (NC) versprach eine solche Rationalisierung. Sie setzte bei der Umsetzung des Fertigungsplans an und vereinfachte insbesondere das Einstellen und Steuern der Maschinen.

Die Veränderung durch die neue NC-Technik lässt sich beispielsweise für den Arbeitsschritt der Bohrung erläutern: Die Arbeiter*innen konnten die Auswahl und Positionierung des Bohrers oder die Drehzahl über ein Bedienpult einstellen und die Maschine führte den Arbeitsschritt anschließend selbstständig aus. Teilweise konnte die Maschine bereits anschließend den vorherigen Schritt kontrollieren, indem etwa die Tiefe der Bohrung direkt nachgemessen wurde. Einige NC-Maschinen verfügten über einen Lochstreifenspeicher, der Informationen über die Einstellung der Werkzeugmaschine und die Abfolge der Arbeitsschritte enthielt. Besonders für die Herstellung von kleinen und mittleren Serien war die Speicherung der Daten ein großer Vorteil. Mussten die Arbeiter*innen hier zuvor immer wieder die gleichen Einstellungen an den Maschinen vornehmen, bestand ihre Aufgabe nun nur noch darin, das Werkstück einzulegen und die Informationen aufzuspielen, beispielsweise über das Einlegen der Speicher oder die Eingabe am Bedienpult. Durch einen Wechsel des Informationsträgers konnte die Maschine so innerhalb kurzer Zeit für andere Prozesse eingestellt und damit ähnlich flexibel eingesetzt werden wie die vollständig von Fachkräften gesteuerten traditionellen Maschinen (Feist 1960).

Weitere Rationalisierungsvorteile wurden den westdeutschen Ingenieur*innen aus den USA berichtet: Demnach wurde durch die NC-Maschinen eine wesentliche Beschleunigung des Produktionsprozesses erreicht. Die Durchlaufzeit und die notwendige Arbeitszeit verringerten sich, wodurch eine größere Menge produziert werden konnte. Gleichzeitig war der Ausnutzungsgrad der Maschinen besser, da sie seltener stillstanden als konventionelle Maschinen (Ray 1970; Schwarz 2012).

Die Kehrseite bestand darin, dass die Einführung der neuen Technik kostspielig und aufwendig war. So hatte bereits die erste Analyse der Wirtschaftlichkeit in den USA in den 1950er Jahren ergeben, dass die Kosten der NC-Fertigung teilweise über denen der konventionellen Fertigung lagen und somit die Wirtschaftlichkeit der NC-Steuerung nicht bestätigt werden konnte. Als wesentlicher Grund dafür wurde die komplizierte Programmierung genannt (Spur 1991, S. 517). Obwohl die damaligen Maschinen nur einen geringen Anteil der notwendigen Steuerungen übernehmen konnten, wie Drehzahl oder Vorschub, war die Programmierung der Maschinen voraussetzungsvoll. Sie erforderte sowohl Fachwissen im Bereich der konventionellen Konstruktion und Maschinentechnik als auch Kenntnisse im Bereich der Computersteuerung (Pollock 1964, S. 99).

Während die traditionellen Maschinen von Fachkräften bedient werden konnten, die meist aus handwerklichen Bereichen kamen, mussten nun zusätzlich Programmierer*innen eingestellt und in den Arbeitsprozess eingebunden werden. Für die Bedienung und den laufenden Betrieb waren weitere Fachkräfte notwendig, die die Maschinen kontrollierten, warteten und reparierten. Insgesamt hatten in den 1960er Jahren die NC-Steuerungen noch mit erheblichen Schwierigkeiten zu kämpfen, sowohl auf technischer Ebene als auch im Bereich von Wirtschaftlichkeit und Akzeptanz.

In Deutschland zeigte sich in diesen Jahren eine Diskrepanz zwischen den ingenieurwissenschaftlichen Ideen einer zukunftsfähigen Fabrik auf der einen Seite und den Anliegen der Unternehmen und den Bedürfnissen der Arbeitskräfte auf der anderen Seite. Die Autor*innen in den Fachzeitschriften bewerteten die NC-Steuerungen als zukunftsweisende Möglichkeit der Automatisierung jenseits der Massenproduktion. Die Unternehmen aber sahen vielfach gar keinen Anlass zur Umstellung auf Numerische Steuerungen. Angesichts des organisatorischen Aufwands für die Betriebe, die das Personal schulen und die Arbeitspläne anpassen mussten, schien der wirtschaftliche Nutzen nicht groß genug. Besonders für jene mittelständischen Betriebe, die in den letzten Jahren erst in eine konventionelle Werkzeugmaschine investiert und gute und eingearbeitete Mitarbeiter*innen hatten, kam eine Umstellung eher nicht infrage. Die Probleme bei der Einführung dieser neuen Maschinen, insbesondere die hohen Kosten und der große Aufwand im Kontrast zu den zu erwartenden Vorteilen, führten zu einer ambivalenten Einstellung gegenüber den NC-Maschinen.

Dennoch sahen viele Ingenieur*innen in NC-Maschinen die Lösung für die produktionstechnischen und arbeitssoziologischen Probleme der Zeit. Siemens-Ingenieur Werner Feist erwartete von den neuen Steuerungen beispielweise einen doppelten Vorteil für die Produktionsarbeit: Die Arbeitskräfte würden vor einer ermüdenden Tätigkeit bewahrt und könnten sich durch ihre gewonnene Zeit wertvolleren Aufgaben widmen, darüber hinaus würde die Produktion so unabhängiger von den Menschen (Feist 1960). In dieser Argumentation wurden NC-Maschinen als erster Schritt zur Automatisierung der Produktion betrachtet und die Einführung der Numerischen Steuerung als humane Entwicklung verstanden. So heißt es in einem Bericht über die Automatisierung der Wälzfräsmaschinen: „Sie tragen dazu bei, den Menschen von der eintönigen Ausführung immer wiederkehrender, gleichartiger Verrichtungen an Maschinen zu befreien und ihn aus der zeitlichen Bindung an den Rhythmus technischer Anlagen zu lösen.“ (Koop 1957, S. 222).

Solche Aussagen der Ingenieur*innen und Unternehmen zogen Reaktionen der Gewerkschaften, der Politik und der Medienöffentlichkeit nach sich. Automatisierung wurde nun mit der Entwertung und dem Verlust von Arbeitsplätzen sowie dem Machtanspruch der Unternehmen gleichgesetzt. In diesen Beschreibungen wurden die Arbeiter*innen zu Verlierer*innen des technologischen Fortschritts einerseits und andererseits zu einem permanenten Hindernis der wirtschaftlichen Rationalisierungsbestrebungen stilisiert, während technische Lösungen Produktivität und Fortschritt versprachen (Heßler 2016).

Schließlich reichten das große Lob der neuen Maschinen und die berichteten Vorteile nicht aus, um eine flächendeckende und länderübergreifende Durchdringung der Arbeitswelt mit dieser neuen Technik, eine Akzeptanz bei den Arbeitskräften und in der Gesellschaft zu erreichen. Und dennoch markierte die NC-Steuerung den Beginn der Automatisierung in den Werkstätten und gilt rückblickend als „Schlüsseltechnologie“ (Hirsch-Kreinsen 2004), die erste technische Grundlagen für die digitale Transformation der Arbeitswelt schuf.

3 Vereinfachung, Flexibilisierung und Integration

Mitte der 1960er Jahre konkretisierte sich die Idee der Automatisierung. Dabei kritisierten die Automatisierungsexperten Carl Martin Dolezalek und Günther Ropohl die „Komplizierung der Maschinen, deren wirtschaftliche Berechtigung in den meisten Fällen zweifelhaft ist“ (Dolezalek und Ropohl 1966, S. 1262). So seien die in der Serienfertigung eingesetzten Universalmaschinen oftmals „überzüchtet“ und nicht zuletzt Grund des Preisanstiegs von Maschinen zwischen 1950 und 1961 um 71 % (ebd.).

Eine Lösung versprach das Aufkommen von Mikroelektronik und Mikroprozessoren in den 1970er Jahren. Mit der zunehmenden Anzahl von Transistoren, die auf einem Chip platziert werden konnten, war es möglich geworden, einen Hauptprozessor mit elektronischen Schaltungen auf viel kleinerem Raum unterzubringen. Eine solche Steuerung war in der Lage, einen Prozessrechner zu ersetzen. Der durch die NC-Maschinen scheinbar greifbar gewordene Traum einer vollautomatischen Fertigung war nun realistischer denn je. Die digitale Transformation der Fabrik bekam neuen Schwung. Mikroprozessoren stießen durch ihre relativ geringen Anschaffungskosten und die vereinfachte Programmierung in vielen Bereichen einen Veränderungsprozess an (Hoffmann 1977; Zankl 2006), der zu weiteren Innovationen führte.

Die allmähliche Durchdringung der Fertigung mit Mikroprozessoren setzte in der zweiten Hälfte der 1970er Jahre ein und zeigte sich in der industriellen Fertigung zunächst in den neuen CNC-Steuerungen (Computerized Numerical Control) der Werkzeugmaschinen. Die Motivation für die Einführung der neuen Technik war eindeutig: Die Produktion sollte flexibler werden, sodass schneller auf neue Produkte umgestellt oder kleinere Verbesserungen an einem Produkt vorgenommen werden konnten (Hirsch-Kreinsen 1993, S. 93, 118, 127). Obwohl die Mikrocomputer als wegweisende und revolutionäre Technik gefeiert wurden, die CNC-Technik in ihren Grundzügen bereits entworfen worden war und einmal mehr über die vollautomatische Fabrik diskutiert wurde, widmeten sich die Unternehmen in den 1970er Jahren jedoch nur zögerlich der digitalen Transformation ihrer Fertigungsstätten. Die aufkommende Mikroelektronik wurde zwar häufig als ein „Entwicklungssprung“ beschrieben, dennoch standen alte und neue Technik in den Werkstätten noch lange nebeneinander. Darüber hinaus prägte die alte Technik auch die neue, denn „selbst radikale Veränderungen basieren auf graduellen Transformationsprozessen“ (Hirsch-Kreinsen 1993, S. 127). Der langsame Verlauf der Durchdringung ist durch Aushandlungsprozesse zwischen alten und neuen Strukturen, traditionellen und innovativen Sichtweisen sowie durch gesellschaftliche, soziale und wirtschaftliche Konflikte gekennzeichnet.

In den 1970er und 1980er Jahren wurden verschiedene CNC-Steuerungssysteme auf den Markt gebracht. Sie unterschieden sich je nach Anwendungsgebiet in Größe und Umfang und konnten somit verschiedene Bedürfnisse bedienen. In der Debatte über die Vorteile der Computerisierung der Produktion und die Bedeutung der Arbeiter*innen differenzierten die Ingenieur*innen zwischen manueller und maschineller Programmierung. Bei der manuellen Programmierung blieb das Wissen um die Programme und die Fertigung in der Werkstatt:

„Der Arbeitsvorbereiter berücksichtigt aufgrund seiner Erfahrung sowie anhand innerbetrieblicher Karteien und Listen die Eigenschaften einer Maschine, bestimmt Art und Reihenfolge der Bearbeitung, Spannmittel, Werkzeuge sowie Schnittaufteilung und gliedert alle Operationen in Einzelschritte, die dann von ihm programmiert werden.“ (Hellwig et al. 1983, S. 356)

Dabei war der Programmaufbau in den meisten Fällen genormt und auf das jeweilige Fertigungsziel optimiert. Bei der maschinellen Programmierung waren Computer mit einer entsprechenden Software ausgestattet, mit der sie den Steuerlochstreifen nach gleicher Norm erstellten. Mitte der 1980er war es bereits möglich, dass dabei sämtliche Daten von den Computern automatisch ermittelt wurden und sogar die Schnittaufteilung und Werkzeugwege automatisch erfolgten. Während solche komplexen Rechenleistungen zuvor nur auf Großrechnern möglich waren, die sich außerhalb der Werkstätten befanden, konnten die Programme nun auch auf Kleinrechnern laufen und somit in die Werkstatt zurückkehren (Hellwig et al. 1983).

Wie bereits angedeutet unterschieden sich jedoch nicht nur die technischen Komponenten, sondern auch die erforderlichen Qualifikationen der Mitarbeiter*innen. Beispielsweise nutzten die werkstattorientierten Steuerungen die Qualifikation der erfahrenen Facharbeiter*innen, die nun selbsttätig die Programmierung, den Betrieb und die Kontrolle der Maschinen übernehmen konnten (Malle 1990; Hirsch-Kreinsen 2004).

Im Rahmen ihrer empirisch angelegten Studien beschäftigten sich Horst Kern und Michael Schumann in den 1970er Jahren mit jenen Arbeitskräften, die von der Arbeit an den Maschinen zu Programmierer*innen der Maschinen umgeschult wurden. Dabei trat die Frage immer wieder hervor, ob sich die Arbeitskräfte durch diesen Funktionswechsel entmündigt oder herabgesetzt fühlten oder ihn als Aufstieg und Machtgewinn interpretierten. Aus den sehr unterschiedlichen Reaktionen der Arbeitskräfte auf die Automatisierung schlussfolgerten Kern und Schumann, dass sich in der automatisierten Fabrik zwei wesentliche Wirkungsbereiche für den Menschen herausbildeten: Der eine Bereich umfasst demnach das Programmieren und Kontrollieren in den Steuerungswarten und der andere Bereich Aufgaben für geringqualifizierte Arbeiter*innen, die (noch) nicht automatisiert waren (Kern und Schumann 1977).

Denn die Akteure in den produktionstechnischen Forschungsinstituten nahmen nun ausgehend von der CNC-Steuerung der Werkzeugmaschinen die frühen Überlegungen zur vollautomatischen Fabrik wieder auf und entwickelten das Leitbild der ganzheitlichen, integrierten Fabrik auf Basis des Computereinsatzes weiter. Bereits in den 1960er Jahren hatte Friedrich Pollock Grundsätze zur Automatisierung in der Fabrik formuliert:

„Der wichtigste methodische Grundsatz der Automation in der Produktionssphäre ist die Integrierung der bisherigen diskontinuierlichen Einzelprozesse der Produktion in einen zusammenhängenden, fließenden Gesamtprozeß, der mit Hilfe gekoppelter, technisch höchstentwickelter Spezial- und Werkzeugmaschinen ausgeführt und von elektronischen Geräten gesteuert und überwacht wird.“ (Pollock 1964, S. 14)

Dieser Grundsatz schien über eine möglichst umfassende Computerisierung der Teilbereiche eines Produktionsbetriebs sowie die anschließende Kopplung der Produktionsbereiche zu einem Gesamtgefüge einlösbar geworden zu sein. Das von Pollock formulierte Ziel, „die menschliche Arbeitskraft in den Funktionen Bedienung, Steuerung und Überwachung von Maschinen sowie der Kontrolle der Produkte soweit durch Maschinen zu ersetzen, daß vom Beginn bis zur Beendigung des Arbeitsprozesses keine menschliche Hand das Produkt berührt“ (Pollock 1964, S. 13), schien nahe zu sein. Die ersten Umsetzungsversuche der vollautomatisierten Fertigung machten allerdings wegen der Störanfälligkeit der Anlagen viel menschliches Eingreifen in die Produktionsprozesse erforderlich. Ein Beitrag aus dem Jahr 1990 hielt so humorvoll fest: „Heere von Wartungstechnikern versuchen, diese Produktionslinien am Laufen zu halten. Daraus ist folgender Witz kolportiert worden. Jemand antwortet auf die Frage, was er unter mannloser Fertigung verstehe: Ja, immer wenn etwas nicht läuft, schicken wir einen Mann los …” (Martin 1990, S. 93).

Die Konzepte der Akteure aus Industrie, Wissenschaft und Unternehmen waren auf die klassischen Ziele der Industrie ausgerichtet: Kosten- und Zeiteffizienz, Qualität, Flexibilität und Sicherung der Marktposition. In wirtschaftlicher Hinsicht war es in der Bundesrepublik aus verschiedenen Gründen notwendig geworden, die Produktionstechnik weiterzudenken. Der Konkurrenzdruck auf dem Weltmarkt war gestiegen, ebenso die Lohnnebenkosten. Die Konsumbedürfnisse hatten sich ferner verändert. Insbesondere kürzere Produktlebenszyklen und steigende Individualisierung waren die Folge. Deshalb befürchteten Ingenieur*innen, Ökonom*innen und Politiker*innen, dass mit den gängigen Produktionsformen viele Unternehmensziele nicht mehr erfüllbar und die Zukunft des Industriestandorts nicht mehr gesichert war. Gleichzeitig erhöhte sich der Druck, die neuen Möglichkeiten der Mikroelektronik auszuschöpfen und die Fertigungstechnik am Stand des wissenschaftlichen Wissens zu orientieren (Boernecke 1984).

Grundlegende Überlegungen kamen in der zweiten Hälfte der 1970er Jahre aus den USA und wurden Mitte der 1980er Jahre in der Bundesrepublik vor allem von den Arbeitsgruppen an den Technischen Universitäten in Berlin und Aachen sowie von großen Unternehmen aufgegriffen, weiterentwickelt und verbreitet (Thorade 2020). Auch die Förderlinien der Bundesregierung knüpften an dieser Stelle an und unterstützten die Automatisierung mit speziellen Förderprogrammen (Bundesbericht Forschung IV 1972, S. 34–43). Bereits das zweite und dritte Datenverarbeitungs-Programm, das von 1971 bis 1975 bzw. 1976 bis 1979 lief, hatte hier angesetzt und „Rechnerunterstütztes Entwickeln, Konstruieren und Fertigen (CAD/CAM)“ mit 46 Mio. DM bzw. 66 Mio. DM gefördert (Grande und Häusler 1994, S. 162–69). Die Modernisierung der Produktion sollte dabei sowohl die internationale Wettbewerbsfähigkeit der deutschen Industrie als auch Arbeitsplätze sichern und insbesondere kleine und mittelständische Betriebe unterstützen (Bundesbericht Forschung IV 1972, S. 34–43).

Zu dieser Zeit wurden auch erste konkrete Überlegungen angestellt, wie die Fertigung mit den produktionsvorbereitenden Arbeitsbereichen verbunden werden kann (Koenigsberger 1974). Das Aufkommen der Mikroelektronik trug zur Realisierung dieser Ideen bei. Eine Schlüsselrolle wurde dabei dem Computer Aided Design (CAD) und insbesondere der „Kopplung“ mit dem Computer Aided Manufacturing (CAM) zugesprochen. Indem die Konstruktionszeichnung, die Schnittaufteilung, die Gliederung der einzelnen Operationen in Einzelschritte und die Erstellung der Stücklisten mit dem Computer erfolgte, konnten die Arbeitsabläufe beschleunigt werden. Zudem ließ sich mit dieser Kopplung von CAM und CAD die Arbeit erleichtern, indem „der Mensch aus dem direkten Arbeitsprozess sowohl zeitlich als auch räumlich entkoppelt wird“ (Hellwig et al. 1983, S. 356).

Hier zeigt sich die doppelte Richtung der Digitalisierung der Fabrik und ihrer ingenieurwissenschaftlichen Ausdeutung in den 1970er und 1980er Jahren. Die Durchdringung mit digitaler Technologie war einerseits das zentrale Element der Rationalisierungsbemühungen und andererseits eine Möglichkeit, um die „Humanisierung des Arbeitslebens“ voranzutreiben (Thorade 2020; Kleinöder et al. 2019). Unter diesem Schlagwort wurden ab 1974 vom Bundesministerium für Forschung und Technologie finanzierte Forschungsprogramme betrieben, um vor allem die Arbeitsbelastung und die damit einhergehenden gesundheitlichen Folgen in verschiedenen Branchen zu verringern (Seibring 2011; Müller 2019). Die Übertragung menschlicher Arbeit an Maschinen – und damit im zunehmenden Maße Computertechnik – stellte dabei eine mögliche Antwort auf die Frage dar, wie insbesondere in der Montage die Arbeitsbelastung verringert werden könne (Abele et al. 1984, S. 466).

Allerdings fehle es in den Bereichen der Informationstechnologie, der Produktionstechniken und in der Führung noch an Qualifikationen, wie der Ingenieur Horst E. Hellwig und die Ingenieurin Ulrike Hellwig 1988 festhielten. Sie prognostizierten daher, dass es durchaus noch zehn Jahre dauern könne, bis das benötigte technische Wissen für eine Digitalisierung der Produktion tatsächlich in den Unternehmen angekommen sei und sinnvoll angewendet werde (Hellwig und Hellwig 1988, S. 16). Damit betonten die beiden, wie wichtig das Personal sowie dessen Wissen und Fähigkeiten in der Realisierung einer vollautomatisierten Fabrik sein würden. Sie resümierten: „Fehlendes Grundlagenwissen wird die Realisierung […] stärker behindern als die Technik und fehlende Schnittstellen.“ (Hellwig und Hellwig 1988, S. 16). Hier deutete sich an, dass sich die Digitalisierung der Fertigung nicht schlagartig durch die technischen Möglichkeiten der Mikroelektronik vollziehen, sondern über Jahrzehnte soziotechnische Anpassungen erfordern werde.

Als Problem wurde zudem gesehen, dass Aufgaben aus einem Unternehmen ausgelagert wurden, was oftmals aufgrund der zunehmenden Komplexität von Software notwendig geworden war. Dies führte einerseits zu einem Kompetenzverlust im fertigenden Unternehmen selbst, andererseits übernahmen Personen die Programmierungen, die mit den Produktionsprozessen nicht vertraut waren, was hohe Kosten und Fehleinschätzungen der Abläufe zur Folge haben konnte (Malle 1990). Letztlich entschieden sich die meisten Betriebe zu einem schrittweisen Vorgehen, computerisierten nach und nach einzelne Fertigungsschritte, um anschließend die weitere Integration zu realisieren. Die hohen Investitionskosten, die notwendige Weiterbildung des Personals, aber auch die nicht einzuschätzenden Vorteile wurden als Gründe genannt, warum die Einführung der Computertechnologie in den Fabriken ins Stocken geriet. Die Problemanalysen und Prognosen ähnelten dabei denen, die schon bei der Einführung von NC- und CNC-Maschinen hervorgebracht worden waren (Brödner und Hamke 1970; Noppen 1977; Seifert 1977).

Die Integration der Verfahren, Daten und Maschinen stieg ungeachtet dieser Ambivalenzen zum Leitbild der technischen Weiterentwicklung auf und wirkte sich auf die Position der Werkstätten in der Fabrik aus. Dies hatte zur Folge, dass die Fabrik neu gedacht werden musste. Seit Ende der 1970er Jahre beflügelte zudem ein „wirtschaftlicher Trendbruch“ die Bestrebungen um die Digitalisierung der Fabrik. Das Marktgeschehen veränderte sich in kürzeren Intervallen als zuvor, die Innovationsrhythmen wurden schneller und die Produktentwicklung musste sich diesem Trend anpassen (Herrmann 1983, S. 269). „Die Beurteilung der Fabrikation kann sich nicht mehr ausschließlich am Auslastungsgrad ihrer Anlagen orientieren, sondern hat vielmehr das Ausmaß des Reaktionsspielraumes (Flexibilität) als entscheidende Größe zu bewerten.“ (Stirnemann 1986, S. 8) Dies bedeutete den eigentlichen Durchbruch für die Digitalisierung in den Werkstätten und schuf damit wesentliche Voraussetzungen für weitere Überlegungen und nächste Schritte der Automatisierung der Produktion.

Während die kleinen und mittleren Betriebe in den 1980er Jahren allmählich computergestützte Technologien in Konstruktion und Fertigung einführten, wurde in der Forschung bereits über den nächsten Schritt diskutiert. Im Mittelpunkt standen die Flexiblen Fertigungssysteme (FFS) sowie Computer Integrated Manufacturing (CIM). Beide Konzepte begriffen die Integration als Grundlage, um die digitale Wende in der Fabrik zum Erfolg zu führen. Flexibilität und Produktivität sollten nun durch technische und organisatorische Anpassungen vereint werden. Ziel war es, den Materialfluss in den Werkstätten zu verbessern. Dabei wurde die Verknüpfung verschiedener computergesteuerter Fertigungsschritte über Industrieroboter, die sämtliche Handhabungs- und Transportfunktionen übernahmen, als relativ einfache Lösung beschrieben (Vettin 1979; Rittershauser und Zapf 1985). Jedoch lassen sich FFS und CIM nicht als weitere Stufen der Automatisierung verstehen, sondern als Reaktionen der Produktionstechnik auf die Probleme der vorangegangenen Computerisierungsschritte.

Bereits in den 1960er und 1970er Jahren hatten deutsche Unternehmen zusammen mit der produktionstechnischen Forschung damit begonnen, Konzepte für FFS zu entwickeln. Dabei lag der Fokus auf der Automatisierung und Flexibilisierung von Produktionsprozessen. Im Mittelpunkt der Überlegungen stand die bessere Einbindung von NC-Maschinen in den Fertigungsablauf durch Prozesssteuerung und Transportsysteme. Die Ergebnisse blieben jedoch hinter den Erwartungen zurück, auch aufgrund mangelnder Realisierungen in den 1970er Jahren (Dostal et al. 1982). In den 1980er Jahren schien es dann durch die Nutzung von Computern zur Steuerung und Automatisierung von Prozessen, die kontinuierlichen Fortschritte in der Konzeption von Werkzeugmaschinen, die Entwicklung von Bearbeitungszentren und die Flexibilisierung von Transportsystemen möglich, integrierte Fertigungssysteme einzuführen (Warnecke 1988). Die grundlegende Idee war, computergesteuerte Maschinen, Roboter, Förderbänder und andere automatisierte Einrichtungen so zu kombinieren, dass die Produktionsprozesse weitgehend ohne menschliche Intervention ablaufen konnten. Diese sogenannte Vollautomatisierung bot Anlass für umfangreiche Diskussionen über die Ersetzbarkeit des Menschen in der Fabrik. Dezidiert beschäftigten sich Studien mit den Arbeitsverhältnissen in FFS, denn durch die Automatisierung und die Einführung von FFS wurde auch die wichtige Rolle des Menschen in diesen Systemen deutlich und sogar die Vorteile für die Arbeitskräfte im Hinblick auf eine bessere Arbeitsgestaltung und Ergonomie sichtbar (Dostal et al. 1982; Schultz-Wild 1986).

Auch die Entwicklung von CIM lässt sich als Reaktion auf die ausbleibende Durchschlagskraft von NC-Maschinen interpretieren. Zentral war dabei die Beobachtung, dass die Schwierigkeiten in der Einführung und die ausbleibenden Erfolge, technisch gesehen, durch die Abgeschlossenheit der Systeme und den fehlenden Informationsaustausch zwischen den Abteilungen zustande kamen. Integration bedeute aber eine Öffnung und Durchlässigkeit der Information im gesamten Betrieb, wodurch dieser als ganzheitliches System gedacht wurde: „Als primär auf den Gesamtprozeß bezogene Rationalisierung ist CIM darauf gerichtet, sämtliche Betriebsbereiche informationstechnisch zu erfassen, ihr Zusammenspiel modellhaft abzubilden und sie auf der Basis eines einheitlichen Datenbestandes informationstechnisch zu integrieren.“ (Behr von und Hirsch-Kreinsen 1987, S. 18) Im Mittelpunkt stand nun also der Informationsfluss, dem sämtliche technischen und organisatorischen Entscheidungen und Veränderungen untergeordnet wurden.

Indem die Speicherung, Bearbeitung und der Austausch von Daten zu einem zentralen Element der Fabrikkonzeption wurden, löste sich die Forschungsanstrengung im Bereich der Produktion endgültig von den Maschinen und wandte sich der Information zu. Damit wurde jener Weg fortgesetzt, der etwa dreißig Jahre zuvor mit der Einführung Numerischer Steuerung angestoßen worden war. Neben der Rationalisierung auf einer technischen Ebene rückte damit aber auch die Humanisierung erneut in den Blick, da die CIM-Philosophie auch als Ende der Arbeitsteilung gelesen wurde (Lay 1986; Kern und Schumann 1984). So sah etwa der Wirtschaftsinformatiker August Wilhelm Scheer gerade in CIM die Chance, die im Taylorismus umgesetzte Arbeitsteilung rückgängig zu machen. Diese sei zu Zeiten Taylors notwendig gewesen, weil „die Informationsverarbeitungskapazität des Menschen begrenzt ist“ (Scheer 1989, S. 5). Digitale Technik hingegen konnte alle Arbeitsbereiche und Fertigungsschritte durchdringen. Doch dafür bedurfte es komplexer Umstellungsbemühungen, in denen einzelne Teilbereiche zunächst einmal ihr implizites Wissen in einer Form explizit machen mussten, damit es in die Computer eingegeben werden konnte (Erdogan 2023, S. 19–20). Wie die Technikhistoriker Michael S. Mahoney und David Gugerli in Bezug auf die Informatisierung durch die Computerisierung festhielten, handelte es sich bei den Bemühungen, die analoge Welt in der digitalen abzubilden, um schwierige und langwierige Prozesse (Mahoney2005; Gugerli 2018).

Im Anschluss an die früheren Überlegungen wurde die Steigerung der Flexibilität weiterhin als notwendig angesehen, um den Anforderungen des Marktes sowie den häufigen technischen Veränderungen, die nicht zuletzt aus der schnellen Entwicklung der Mikroelektronik resultierten, gerecht zu werden. Doch die Bereitschaft zur Umsetzung hielt sich abermals in Grenzen. Gründe, die gegen CIM hervorgebracht wurden, waren wieder einmal die hohen Investitionskosten, die erforderliche Weiterbildung sowie der große zeitliche Aufwand. Hinzu kam, dass sich auch die Computertechnologie nun immer schneller wandelte und teilweise inkompatible Angebote auf dem Markt zu finden waren. Hier gerieten Unternehmen oft in eine Abhängigkeit durch bereits vorher getätigte Investitionen. Zugleich bedeutete die Dynamik der technischen Neuerungen, dass Erfahrungswissen bei den Angestellten zunehmend fehlte. Sie wollten sich oft nicht erneut auf weitere Veränderungen einlassen, nachdem sich die vorherigen Systeme gerade etabliert hatten (Erdogan 2023, S. 21–22). Die Befürworter*innen von CIM, aber auch spätere Forschungsarbeiten zum Wandel der Arbeitswelt durch digitale Technologien, haben dabei die Persistenz institutioneller Strukturen und die durch historische Entwicklungen geprägte Pfadabhängigkeiten unterschätzt (Hirsch-Kreinsen et al. 2018).

Es klaffte eine Lücke zwischen theoretischen und konzeptionellen Ideen und der praktischen Umsetzung in den Betrieben. Neben wenigen Vorzeigeprojekten der Automatisierung behielt in den 1980er Jahren ein großer Teil der Unternehmen traditionelle Organisationsformen bei und nutzte digitale Technologien allenfalls dort, wo sie frühere manuelle Arbeitsschritte ersetzten, ohne strukturelle Veränderungen zu erzwingen (Lay 1986). In der Folge entstanden zahlreiche Insellösungen statt integrierter, vernetzter Produktionsprozesse, die in den Visionen der Digitalisierung der Fabrik versprochen wurden.

4 Fazit: Digitalisierung der Fabrik

Die neuen Konzepte, die mit der Digitalisierung verbunden wurden, knüpften an bestehende Leitbilder der Rationalisierung durch Automatisierung an, indem sie nach Möglichkeiten zur Beschleunigung, Vereinfachung, Flexibilisierung und Integration suchten. Die Innovation der digitalen Technik in den Werkstätten war deshalb zunächst nicht so stark zu spüren, wie die Fachdiskussion und die Forschungs- und Entwicklungsabteilungen der großen Industrieunternehmen vermuten ließen. Vielmehr hielt die Parallelität alter und neuer Technik in den Werkstätten noch lange an und führte im Falle von CIM zu Insellösungen und Teilautomatisierungen. Vor allem in mittelständischen Betrieben stellte sich die digitale Transformation als ein komplexer Prozess dar, in dem soziale, kulturelle, wirtschaftliche und technische Faktoren zusammenkamen.

Die Forschung und Entwicklung im Bereich der Produktionstechnik löste sich durch Computertechnik immer weiter von den traditionellen Vorstellungen, die in der Arbeitsteilung und der Verbesserung der Maschinen die zentralen Aufgaben sahen. Stattdessen rückte seit den 1970er Jahren die Informatisierung in den Mittelpunkt und die Organisation der Produktion wurde zum Kernelement einer Fabrik der Zukunft. Wenngleich die Mikroelektronik die Produktion nicht schlagartig revolutionierte, wurden durch sie weitere Schritte eingeleitet. Die Computerisierung breiter Bereiche in der Fabrik und schließlich die Integrationsphilosophie der 1980er Jahre setzten die speicherprogrammierbare Steuerung ebenso voraus wie die Verfügbarkeit von günstigen und leistungsfähigen Mikroprozessoren.

Die Mikroelektronik trug aller Schwierigkeiten zum Trotz entschieden dazu bei, dass sich die Verfahren, die zur Programmierung der Steuerungen eingesetzt wurden, der Umgang mit Informationen sowie die Arbeitswelt allmählich veränderten. Von ihr ging ein Beschleunigungseffekt auf die Digitalisierung aus, indem sie nicht nur die technischen, sondern auch die wirtschaftlichen und praktischen Anforderungen befriedigte, sodass analoge Technik nach und nach durch digitale Technik ersetzt werden konnte. Hierfür waren aber auch vorangegangene Bemühungen der Automation verantwortlich. Die Digitalisierung der Fabrik lässt sich somit nicht als technische Revolution verstehen, sondern vielmehr als Verschiebung – denn weder wurden Maschinen in der Fertigung vollständig abgelöst noch war die Ausrichtung an Information wirklich neu. Die Mikroelektronik verstärkte die Transformation der Fabrik zwar, sie baute jedoch auf vorherige technische Entwicklungen sowie soziale Aushandlungsprozesse der Informatisierung und Automatisierung in den fertigenden Unternehmen auf.

Die verschiedenen Phasen, in denen die industrielle Produktion auf digitale Technik umgestellt werden sollte, waren alle zu Beginn mit ähnlichen Problemen konfrontiert. Dies betraf technische Probleme und Störanfälligkeiten, fehlende Akzeptanz und mangelnde Erfahrung mit den neuen Produktionsprozesse in den Unternehmen sowie aufwendige Qualifizierungsmaßnahmen für die Beschäftigten. Vor allem die Umstrukturierung der Prozesse und Arbeitsbereiche dauerte länger, als vermutet worden war. Ferner wurden der Aufwand sowie die Kosten für die kleinen und mittelständischen Unternehmen unterschätzt, die darüber hinaus durch vorherige Investitionen schon andere Pfade abseits der Großkonzepte wie CIM beschritten hatten. Zudem hatten Ingenieur*innen, Politiker*innen und Ökonom*innen den Bedarf bei diesen Unternehmen falsch eingeschätzt. Nicht zuletzt wurde auch die Position des Menschen in der Fertigung immer wieder neu verhandelt und menschliche Arbeit in der Wechselwirkung mit den Maschinen neu bewertet.

Die Digitalisierung der Arbeit in der Fertigung war somit nicht so sehr von Innovationen, als vielmehr von Aushandlungsprozessen zwischen alter und neuer Technik sowie menschlicher Einflussnahme geprägt. Einerseits rief die Faszination für das Neue immer wieder die Vorstellung einer technischen Revolution hervor, andererseits agierten die Betriebe zögerlich. Sie scheuten große Innovationen, tiefgreifende Veränderungen, standen digitalen Technologien skeptisch gegenüber und zeigten sich mit den bestehenden Möglichkeiten zufrieden. Der technische Wandel der Arbeitswelt vollzieht sich somit nicht allein und losgelöst, sondern wird gerahmt von langen Linien des Suchens und Ausprobierens sowie von der Beständigkeit etablierter Arbeitsprozesse.