Es gibt einen Moment in der Geschichte jeder Technologie, in dem der Fortschritt beginnt, sich selbst zu untergraben. Die Dampfmaschine wurde so aufwändig optimiert, dass ihre Ingenieure Jahrzehnte damit verbrachten, Kessel und Kolben an physikalische Grenzen zu treiben - bis der Elektromotor die gesamte Komplexität obsolet machte.
Reife Technologien werden durch inkrementelle Optimierung immer effizienter, aber auch immer komplexer, anfälliger und teurer in der Wartung. Irgendwann fressen die Kosten dieser Komplexität die Effizienzgewinne auf. Dieser Punkt markiert den Boden, auf dem Disruption gedeiht. Was folgt, ist selten ein sanfter Übergang - es ist ein Bruch, der Gewinner und Verlierer schafft, bestehende Industrien zerstört und neue entstehen lässt, und dessen gesellschaftliche Folgekosten oft unterschätzt werden.
Was ist die innere Logik dieses Zyklus? Warum wird komplexe Technologie selbstbegrenzend? Welche Rolle spielt politischer und wirtschaftlicher Druck dabei? Wie entstehen Disruptionen, und was bedeuten sie für Wirtschaft und Gesellschaft?
Das ökonomische Konzept der sinkenden Grenz-Erträge beschreibt, wie jede zusätzliche Einheit Aufwand immer weniger zusätzlichen Ertrag bringt. In der Technologie gilt dasselbe: Je weiter eine bestehende Technologie ausgereizt wird, desto teurer und aufwändiger werden weitere Verbesserungsschritte, und desto kleiner ist der erzielte Fortschritt.
Was weniger diskutiert wird, ist die physische Kehrseite: Hochoptimierte Systeme werden nicht nur teurer, sondern auch fragiler. Sie operieren an den Grenzen des physikalisch Machbaren - mit extremen Temperaturen, Drücken, Toleranzen -, und diese Grenzen sind grundsätzlich feindlich gegenüber Langzeitstabilität. Je enger die Toleranzen, je dichter die Verschachtelung von Subsystemen, desto wahrscheinlicher werden Fehler, die niemand vorhergesehen hat.
Der Systemtheoretiker Charles Perrow beschrieb dieses Phänomen in seinem 1984 erschienenen Werk *Normal Accidents* am Beispiel von Kernkraftwerken und anderen Hochrisikoanlagen. Er unterschied zwischen linear gekoppelten Systemen, bei denen Fehler isolierbar bleiben, und eng gekoppelten, interaktiv komplexen Systemen, in denen ein einzelner Fehler kaskadenartig durch das gesamte System läuft. Perrows These war provokativ: Bei hinreichender Komplexität sind große Störungen keine Ausnahmen, sondern statistisch unvermeidliche Normalfälle.
Diese Erkenntnis gilt weit über Sicherheitskatastrophen hinaus. Sie gilt für jedes hochoptimierte technische System, das an seinen Betriebsgrenzen arbeitet - ob es um Chemiewerke geht, moderne Halbleiterfabriken, digitale Infrastrukturen oder medizinische Geräte der neuesten Generation. Das Ergebnis ist immer dasselbe: Wartungsintervalle werden kürzer, Reparaturen komplexer, Ausfälle teurer, und der Fachkräftebedarf für Betrieb und Instandhaltung wächst schneller als das verfügbare Angebot.
Die steigende Wartungsintensität komplexer Technologie ist nicht nur ein technisches Problem. Sie ist auch ein ökonomisches - und zwar eines mit einer tückischen inneren Logik. Hersteller komplexer Systeme haben in der Regel ein starkes Interesse daran, dass ihre Produkte gewartet werden müssen. Denn Wartung, Ersatzteile und Serviceverträge sind verlässliche, margenstarke Einnahmequellen, die oft lukrativer sind als der Erstverkauf.
Dieses Modell - in der Betriebswirtschaft als „Razor and Blade“-Strategie bekannt - ist überall zu beobachten. Medizingeräte werden preisgünstig an Krankenhäuser abgegeben, die eigentlichen Margen entstehen über Verbrauchsmaterialien und Serviceverträge. Industrieroboter werden mit Wartungspaketen verkauft, die über die Lebensdauer der Anlage ein Vielfaches des Kaufpreises einbringen. Unternehmenssoftware wird günstiger lizenziert, dafür aber über Support-, Update- und Integrationspakete dauerhaft monetarisiert.
Das Problem ist nicht das Modell als solches - es ermöglicht Herstellern, in aufwändige Entwicklung zu investieren und die Kosten über lange Zeiträume hereinzuspielen. Das Problem ist der strukturelle Interessenkonflikt, den es erzeugt: Wer an der Wartung verdient, hat einen gedämpften Anreiz, wartungsarme Produkte zu entwickeln. Je komplexer und störungsanfälliger ein Produkt ist, desto mehr Serviceumsatz generiert es. Die Optimierung des Produkts und die Optimierung des Geschäftsmodells ziehen in verschiedene Richtungen.
Das ist ein klassisches Principal-Agent-Problem: Der Hersteller (Agent) hat Informationsvorsprünge über die Wartungsbedürftigkeit seines Produkts, die der Käufer (Principal) nicht hat, und seine Anreize sind nicht vollständig auf die Interessen des Käufers ausgerichtet. Regulierung, Transparenzpflichten und Wettbewerb können diesen Konflikt mildern, aber selten auflösen.
Technologischer Fortschritt folgt nicht allein dem Markt. Er wird in erheblichem Maße durch regulatorische Rahmenbedingungen geformt. In der Geschichte der Industriegesellschaft lassen sich immer wieder Phasen beobachten, in denen politischer Druck - ob durch Umweltgesetzgebung, Sicherheitsvorschriften oder Effizienzmandate - Branchen zu Innovationssprüngen zwang, die der Markt allein nicht oder nur viel langsamer erzeugt hätte.
Die Einführung von Abgasgrenzwerten für Kraftfahrzeuge in den 1970er Jahren ist ein klassisches Beispiel. Der Clean Air Act in den USA, die Abgasnormen in Europa - sie zwangen die Automobil-Industrie zu erheblichen Investitionen in Katalysatoren, Einspritzsteuerung und Motormanagement. Kurzfristig stiegen Kosten und Komplexität. Mittelfristig entstanden sauberere, effizientere Motoren. Und die regulatorische Erfahrung dieser Jahre legte den Grundstein für das Know-how, das später in modernen Hybridantrieben und schließlich in Elektrofahrzeugen zur Anwendung kam.
Aber dieselbe Geschichte zeigt auch die Risiken regulatorischen Drucks: Wenn die Ziele zu ambitioniert und der Zeitrahmen zu kurz sind, entsteht ein Zwang zur Markteinführung von Technologien, deren Reifegrad noch nicht ausreicht. Die frühen Generationen von Dieselpartikelfiltern waren in der Realpraxis störungsanfälliger als im Labor. Erste Generationen von Lithium-Ionen-Akkus in Elektrofahrzeugen zeigten Schwächen bei Kälte, Ladezyklen und in seltenen Fällen bei der thermischen Stabilität. Diese Kinderkrankheiten sind nicht zwingend ein Argument gegen die Technologie - aber sie sind ein Argument für einen realitätsnahen Zeitplan, der den Reifegrad berücksichtigt.
Das Grundproblem ist eine strukturelle Asymmetrie: Politische Ziele werden in Legislaturperioden gedacht, technologische Reife entwickelt sich in Jahrzehnten. Wenn diese Zeithorizonte auseinanderfallen, trägt die Gesellschaft die Kosten der Lücke.
Es gibt noch eine tiefere Dimension des Effizienzimperativs, die selten explizit diskutiert wird. In modernen Industriegesellschaften ist Effizienz nicht nur ein ökonomisches Ziel, sondern ein kulturelles. Die Überzeugung, dass Ressourcen optimal eingesetzt werden sollen, dass Verschwendung moralisch fragwürdig ist, und dass technischer Fortschritt sich primär in Effizienzsteigerung ausdrückt, ist tief in das Denken von Ingenieuren, Managern, Ökonomen und Politikern eingeschrieben.
Diese Überzeugung ist in vielem berechtigt. Effizienz schont Ressourcen, senkt Kosten, ermöglicht breiteren Zugang zu Gütern und Dienstleistungen. Aber sie hat eine blinde Seite: Sie misst immer nur das, was gemessen werden kann. Direkter Energieverbrauch lässt sich gut messen. Wartungskosten über den gesamten Lebenszyklus schon schlechter. Die gesellschaftlichen Kosten von Komplexität - Fachkräftemangel, Abhängigkeit von spezialisierten Lieferketten, systemische Anfälligkeit - kaum.
Der Ökonom E.F. Schumacher beschrieb in *Small is Beautiful* (1973) eine alternative Sichtweise: Technologie sollte nicht primär nach Effizienz, sondern nach Angemessenheit bewertet werden - nach ihrer Fähigkeit, von Menschen verstanden, betrieben und repariert zu werden. Diese „intermediate technology“, wie Schumacher sie nannte, ist keine Absage an Fortschritt. Es ist eine Mahnung, dass Systeme, die niemand mehr vollständig versteht, eine eigene Art von Ineffizienz erzeugen, die in den üblichen Kennzahlen nicht auftaucht.
Clayton Christensens Theorie der disruptiven Innovation, entwickelt in *The Innovator's Dilemma* (1997), beschreibt, wie etablierte Unternehmen durch neue Wettbewerber verdrängt werden, nicht weil diese anfangs besser wären, sondern weil sie anders sind. Disruptive Innovationen beginnen typischerweise am unteren Ende des Marktes oder in Nischen, die von etablierten Anbietern ignoriert werden, weil sie für deren Geschäftsmodell unattraktiv erscheinen. Sie sind zunächst simpler, billiger, schlechter in den etablierten Leistungskategorien. Aber sie verbessern sich schnell, und irgendwann sind sie gut genug für den Massenmarkt - zu einem Bruchteil des Preises und mit einem fundamental anderen Komplexitätsprofil.
Das Schlüsselwort ist das andere Komplexitätsprofil. Disruptive Technologien umgehen die Komplexitätsfalle nicht durch bessere Optimierung des Bestehenden. Sie definieren das Problem neu. Der Transistor ersetzte nicht die bessere Vakuumröhre; er machte die Frage, wie man eine bessere Vakuumröhre baut, irrelevant. Das Smartphone verdrängte nicht bessere Digitalkameras, MP3-Player und Navigationssysteme - es machte den Begriff „Gerät für eine Funktion“ grundsätzlich obsolet.
In diesem Sinne ist Disruption weniger eine technologische als eine konzeptuelle Leistung: Sie durchbricht die Pfadabhängigkeit, die darin besteht, dass bestehende Technologien die Fragestellung definieren, auf die weitere Entwicklung antwortet.
Pfadabhängigkeit ist ein zentrales Konzept zum Verständnis, warum Komplexitätsfallen so stabil sind. Dieser Begriff, geprägt durch die Arbeiten von Paul David und W. Brian Arthur in den 1980er Jahren, beschreibt, wie frühe Entscheidungen in der Entwicklung einer Technologie spätere Optionen einschränken. Das bekannteste Beispiel ist die QWERTY-Tastatur, die für mechanische Schreibmaschinen entwickelt wurde, um häufig benutzte Buchstaben auseinanderzuhalten und so das Verhaken der Typenhebel zu verhindern. Diese Begründung ist längst obsolet, aber die Tastatur ist geblieben, weil die Umschulung von Milliarden von Menschen teurer wäre als der Effizienzverlust durch ein suboptimales Layout.
In komplexen Industriesystemen ist Pfadabhängigkeit noch mächtiger. Normen und Standards bauen auf bestehenden Technologien auf. Lieferketten sind auf bestimmte Materialien und Prozesse ausgelegt. Ausbildungssysteme reproduzieren vorhandenes Wissen. Patentportfolios sichern bestehende Lösungen ab. Und die Menschen, die über Investitionsentscheidungen befinden, haben ihre Karriere im bestehenden System aufgebaut. All das macht inkrementelle Verbesserung attraktiver als radikale Neuausrichtung - selbst wenn die Signale überdeutlich sind, dass das bestehende System an seine Grenzen stößt.
Es ist daher kein Zufall, dass die wirklich großen Disruptionen der Geschichte selten von den etablierten Marktführern kamen. Kodak hatte das Patent auf die digitale Kamera und begrub sie. Nokia wusste, dass das Smartphone kommen würde, und unterschätzte das Tempo. Die Eisenbahngesellschaften des 19. Jahrhunderts hätten Automobil-Unternehmen werden können und wurden stattdessen von ihnen verdrängt. Wer im bestehenden System zu viel zu verlieren hat, ist strukturell schlechter positioniert, das nächste System zu schaffen.
Wenn disruptive Innovationen selten von etablierten Marktführern kommen, woher kommen sie dann? Die Wirtschaftshistorikerin Mariana Mazzucato hat in *The Entrepreneurial State* (2013) eindrücklich dokumentiert, dass ein erheblicher Teil der Basistechnologien, die moderne Disruptionen ermöglichen, auf öffentlich finanzierter Grundlagenforschung beruht. Das Internet entstand aus einem Militärprojekt der US-Regierung. Die GPS-Technologie, die Smartphones intelligent macht, ist ein öffentliches Gut, finanziert vom amerikanischen Verteidigungsministerium. Solarzellenforschung, Batterietechnologie, die mRNA-Technologie hinter den COVID-Impfstoffen - all das hat tiefe Wurzeln in staatlich geförderter Wissenschaft.
Das bedeutet nicht, dass Märkte keine Rolle spielen. Die Kommerzialisierung, Skalierung und iterative Verbesserung dieser Basistechnologien ist eine genuine Marktleistung. Aber die grundlegende wissenschaftliche Infrastruktur, auf der Disruptionen aufbauen, ist häufig ein öffentliches Gut. Das hat politische Implikationen: Wer über Forschungsbudgets entscheidet, entscheidet mit darüber, welche Disruptionen in zwanzig oder dreißig Jahren möglich sein werden.
Joseph Schumpeter prägte den Begriff der „schöpferischen Zerstörung“ als Beschreibung des Grundprozesses kapitalistischer Dynamik: Neues entsteht, indem Altes vernichtet wird. Neue Industrien, neue Berufe, neue Produkte entstehen aus der Disruption bestehender Strukturen. Langfristig steigt der gesellschaftliche Wohlstand. Kurzfristig entstehen erhebliche Verwerfungen.
Diese Verwerfungen sind nicht abstrakt. Sie treffen Menschen. Der Maschinenführer in einer Druckerei, der mit dem Aufkommen des Digitalsatzes seinen Beruf verliert. Der Facharbeiter in der Getriebefertigung, dessen spezifisches Wissen mit dem Elektromotor wertlos wird. Der Wartungstechniker, dessen jahrelange Expertise an einer Technologie überholt wird. In der klassischen ökonomischen Theorie wird dieser Übergangsschmerz durch höhere Löhne in neuen Sektoren und die allgemeine Wohlstandssteigerung kompensiert. In der Realität ist die Kompensation unvollständig, ungleich verteilt, und setzt zeitlich versetzt ein.
Es gibt eine räumliche Dimension dieser Ungleichheit, die in der Theoriediskussion oft unterbelichtet bleibt. Technologische Disruption vernichtet nicht nur Berufe, sondern ganze regionale Wirtschaftsstrukturen. Das Ruhrgebiet, das englische Midlands, der amerikanische Rust Belt - das sind die sichtbarsten Spuren großer Technologieübergänge im 20. Jahrhundert. Die neuen Industrien entstehen selten an denselben Orten wie die alten. Silicon Valley ist nicht Detroit, und der neue Jobmarkt für Software-Entwickler spielt sich nicht in denselben Gemeinden ab wie die untergehende Stahlindustrie.
Diese räumliche Konzentration von Transformationskosten ist ein politisch hochexplosives Phänomen. Regionen, die Industrien verlieren, verlieren nicht nur Arbeitsplätze, sondern Steuereinnahmen, Infrastruktur, Bildungseinrichtungen, soziale Netzwerke. Menschen, die nicht mobil sind - wegen Familie, Eigentum, Bindung an eine Gemeinschaft -, können den Wandel nicht einfach individuell kompensieren. Das erzeugt politischen Unmut, der sich in Proteststimmen, Misstrauen gegenüber technologischen Eliten und Widerstand gegen weitere Innovationszyklen ausdrückt. Es ist kein Zufall, dass in den Regionen, die vom wirtschaftlichen Strukturwandel am härtesten getroffen wurden, populistische Bewegungen besonders starken Zulauf finden.
Ein häufig übersehener gesellschaftlicher Effekt steigender Technologiekomplexität ist der schleichende Verlust von Systemkompetenz. Wenn Technologien so komplex werden, dass sie nur noch von hochspezialisierten Fachleuten verstanden, betrieben und repariert werden können, entstehen neue Abhängigkeiten - von spezialisierten Unternehmen, konzentrierten Lieferketten, proprietären Wissensbeständen.
Diese Abhängigkeiten haben ihre eigene Fragilität. Die COVID-19-Pandemie hat schlaglichtartig beleuchtet, wie anfällig globale, hochspezialisierte Lieferketten für externe Schocks sind. Der weltweite Halbleitermangel der Jahre 2021 bis 2023 zeigte, wie die Konzentration hochkomplexer Fertigung auf wenige Standorte ganze Industrien lahmlegen kann. Die Debatte um Energieabhängigkeit hat offengelegt, dass maximale Effizienz durch globale Arbeitsteilung und minimale Redundanz mit Resilienz in einem fundamentalen Spannungsverhältnis steht.
Effizienz und Resilienz sind keine kompatiblen Ziele. Effiziente Systeme sind schlank, ohne Redundanz, auf einen Betriebszustand optimiert. Resiliente Systeme halten Puffer vor, haben Redundanzen, können auf Alternativen zurückgreifen. In den vergangenen Jahrzehnten hat die Logik der Effizienz in Politik und Wirtschaft fast durchgängig gewonnen. Die Erfahrungen der jüngsten Krisen legen nahe, dass diese Gewichtung überdacht werden sollte.
Die beschriebenen Abhängigkeiten haben auch eine geopolitische Dimension, die zunehmend in den Vordergrund tritt. Wer Schlüsseltechnologien beherrscht - die Fertigung fortgeschrittener Halbleiter, die Verarbeitung seltener Erden, die Entwicklung von Kernfusionstechnologie oder KI-Infrastruktur -, hat strategischen Einfluss weit über den ökonomischen Wert dieser Technologien hinaus.
Das Konzept der „technologischen Souveränität“ hat deshalb in den vergangenen Jahren Eingang in politische Programme gefunden, in Europa ebenso wie in den USA und China. Die Logik ist, dass bestimmte Technologien zu wichtig für die wirtschaftliche und militärische Handlungsfähigkeit eines Staates sind, um sie vollständig dem globalen Markt zu überlassen. Das ist eine Abkehr von der Freihandelslogik, die die letzten Jahrzehnte dominierte - und sie ist nicht ohne Kosten. Subventionierte heimische Produktion ist teurer als importierte. Doppelte Lieferketten verschwenden Ressourcen. Technologischer Nationalismus kann Innovationszyklen verlangsamen.
Aber die Alternative - vollständige Abhängigkeit von global konzentrierten Kompetenzen und Lieferketten - hat sich als zu fragil erwiesen. Die Frage ist nicht, ob eine gewisse Renationalisierung von Schlüsseltechnologien stattfinden wird. Sie findet bereits statt. Die Frage ist, wie sie so gestaltet werden kann, dass sie Resilienz erhöht, ohne Effizienz und Innovationskraft dauerhaft zu untergraben.
Die Technikgeschichte kennt keine automatischen Disruptionen. Jeder große Technologieübergang war das Ergebnis eines komplexen Zusammenspiels aus wissenschaftlichem Wissen, unternehmerischer Initiative, politischen Rahmenbedingungen und gesellschaftlicher Akzeptanz. Dampfmaschine, Elektrifizierung, Digitalisierung - sie alle hatten Vorläufer, Widerstände, Rückschläge und lange Latenzphasen, bevor sie ihren Siegeszug antraten.
Was diese Übergänge gemeinsam haben, ist der Moment, in dem die neue Technologie nicht mehr nur besser in einzelnen Dimensionen ist, sondern grundsätzlich anders - einfacher zu skalieren, einfacher zu warten, zugänglicher für mehr Menschen und Anwendungsfälle. Elektromotoren haben weniger bewegliche Teile als Verbrennungsmotoren. Digitale Speicher haben keine mechanischen Komponenten, die verschleißen. Solarmodule produzieren Strom ohne bewegliche Teile, ohne Brennstofflogistik, ohne Emissionen.
Diese strukturelle Einfachheit - nicht in der Herstellung, aber im Betrieb - ist oft das entscheidende Merkmal disruptiver Technologien. Sie verschieben Komplexität aus dem Betrieb in die Fertigung, wo sie durch Skalierung und Standardisierung besser beherrschbar ist.
Für Politik und Gesellschaft folgt daraus eine klare Handlungsempfehlung: Disruption kann und sollte gestaltet werden. Das bedeutet erstens, in Grundlagenforschung zu investieren, weit bevor abzusehen ist, welche kommerziellen Anwendungen entstehen werden. Es bedeutet zweitens, regulatorische Rahmenbedingungen zu schaffen, die Experimentation erlauben und Nischenanwendungen schützend fördern, ohne etablierte Technologien künstlich am Leben zu halten, wenn ihre Grenzen erreicht sind. Es bedeutet drittens, die sozialen Kosten des Übergangs ernst zu nehmen und institutionell abzufedern - durch Umschulungsprogramme, regionale Entwicklungsfonds, und eine ehrliche politische Kommunikation darüber, dass Technologieübergänge Gewinner und Verlierer schaffen.
Was es nicht bedeutet: den Übergang zu erzwingen, bevor die Technologie reif ist. Regulatorischer Druck kann Innovationsrichtungen setzen. Er kann aber nicht physikalische Reifeprozesse beschleunigen. Die Erfahrung zeigt, dass der Versuch, das zu tun, typischerweise dazu führt, dass unreife Technologien in den Markt gedrückt werden, die mehr versprechen als sie halten können - mit den entsprechenden wirtschaftlichen Folgen, die dann als Argumente gegen die Technologie selbst instrumentalisiert werden.
Komplexe, wartungsintensive Technologie ist kein Endpunkt, sondern ein Zwischenzustand. Sie entsteht, wenn eine Technologielinie ausgereizt wird, wenn die Effizienzgewinne kleiner werden und die Kosten ihrer Erkaufung größer. Sie ist das Symptom einer Reife, die in Überkomplexität umgeschlagen ist - und oft das Zeichen, dass eine Disruption überfällig ist.
Aber Disruption ist kein Naturgesetz, das automatisch eintritt. Sie ist das Ergebnis von Investitionen in Wissen, von unternehmerischem Mut, von politischer Weitsicht und gesellschaftlicher Bereitschaft, Übergänge zu akzeptieren und ihre Kosten solidarisch zu tragen. Die Geschichte des technologischen Fortschritts ist keine Geschichte des unvermeidlichen Aufstiegs. Sie ist eine Geschichte menschlicher Entscheidungen - über Forschungsprioritäten, Investitionen, Regulierung, und den Umgang mit denen, die im Übergang zurückbleiben.
Das Paradox des Fortschritts - dass er sich durch Komplexität selbst begrenzt, um sich durch Disruption zu befreien - lässt sich nicht auflösen. Aber es lässt sich bewusster gestalten. Und das ist vielleicht der wichtigste Beitrag, den ein Verständnis der Technikgeschichte für die Gegenwart leisten kann: nicht Zuversicht, dass es schon gut geht, sondern Klarheit darüber, was getan werden müsste, damit es gut geht.