Zurück  •  Startseite Economics-Digest.com  •  Impressum & Datenschutz

Komplexität und Disruption

Das Paradox des Fortschritts

Es gibt einen Moment in der Geschichte jeder Tech­nologie, in dem der Fort­schritt be­ginnt, sich selbst zu unter­graben. Die Dampf­maschine wurde so auf­wändig opti­miert, dass ihre Ingenieu­re Jahr­zehnte damit ver­brachten, Kessel und Kolben an physi­ka­lische Grenzen zu treiben - bis der Elektro­motor die ge­samte Komplexi­tät obsolet machte.

Reife Technologien werden durch inkremen­telle Optimie­rung immer effizien­ter, aber auch immer komplexer, anfälli­ger und teurer in der Wartung. Irgend­wann fressen die Kosten dieser Komplexi­tät die Effizienz­gewinne auf. Dieser Punkt markiert den Boden, auf dem Disrup­tion gedeiht. Was folgt, ist selten ein sanf­ter Über­gang - es ist ein Bruch, der Ge­winner und Ver­lierer schafft, bestehende Industrien zerstört und neue ent­stehen lässt, und dessen gesell­schaft­liche Folgekosten oft unterschätzt werden.

Was ist die innere Logik dieses Zyklus? Warum wird komplexe Tech­nolo­gie selbst­begren­zend? Welche Rolle spielt poli­ti­scher und wirt­schaft­li­cher Druck dabei? Wie ent­stehen Disrup­tionen, und was be­deuten sie für Wirt­schaft und Gesell­schaft?

Die Komplexitätsfalle

Steigende Systemanfälligkeit und sinkende Grenz-Erträge

Das ökonomische Konzept der sinkenden Grenz-Erträge be­schreibt, wie jede zusätz­liche Ein­heit Aufwand immer weniger zusätz­li­chen Ertrag bringt. In der Tech­nolo­gie gilt das­selbe: Je weiter eine be­stehende Tech­nolo­gie aus­gereizt wird, desto teurer und auf­wändiger werden weitere Ver­besse­rungs­schritte, und desto kleiner ist der erziel­te Fort­schritt.

Was weniger diskutiert wird, ist die physi­sche Kehr­seite: Hochopti­mierte Systeme werden nicht nur teurer, sondern auch fragiler. Sie operie­ren an den Grenzen des physika­lisch Mach­baren - mit extre­men Tempera­turen, Drücken, Toleran­zen -, und diese Grenzen sind grund­sätz­lich feind­lich gegenüber Langzeit­stabili­tät. Je enger die Toleran­zen, je dich­ter die Ver­schachte­lung von Sub­systemen, desto wahr­schein­li­cher werden Fehler, die niemand vorher­gesehen hat.

Der Systemtheoretiker Charles Perrow beschrieb dieses Phänomen in seinem 1984 er­schiene­nen Werk *Normal Accidents* am Bei­spiel von Kern­kraft­werken und ande­ren Hoch­risiko­anlagen. Er unter­schied zwi­schen linear ge­koppelten Syste­men, bei denen Fehler isolier­bar bleiben, und eng gekoppelten, inter­aktiv komple­xen Syste­men, in denen ein einzel­ner Fehler kaskaden­artig durch das ge­samte System läuft. Perrows These war provo­kativ: Bei hin­reichen­der Komplexi­tät sind große Stö­run­gen keine Ausnahmen, sondern statis­tisch unvermeid­liche Normal­fälle.

Diese Erkenntnis gilt weit über Sicherheits­katastro­phen hinaus. Sie gilt für jedes hoch­optimier­te tech­ni­sche System, das an seinen Betriebs­grenzen arbeitet - ob es um Chemie­werke geht, moder­ne Halbleiter­fabriken, digi­tale Infra­struk­turen oder medizi­nische Geräte der neuesten Genera­tion. Das Ergeb­nis ist immer das­selbe: Wartungs­inter­valle werden kürzer, Repara­turen komplexer, Aus­fälle teurer, und der Fach­kräfte­bedarf für Betrieb und Instand­hal­tung wächst schneller als das verfügbare Angebot.

Wenn Wartung zum Geschäftsmodell wird

Die steigende Wartungsintensität komplexer Tech­nologie ist nicht nur ein tech­ni­sches Problem. Sie ist auch ein ökono­mi­sches - und zwar eines mit einer tücki­schen inne­ren Logik. Herstel­ler komplexer Systeme haben in der Regel ein starkes Interesse daran, dass ihre Produkte ge­wartet werden müssen. Denn Wartung, Ersatz­teile und Service­verträge sind ver­läss­liche, margen­starke Einnahme­quellen, die oft lukra­tiver sind als der Erst­verkauf.

Dieses Modell - in der Betriebswirt­schaft als „Razor and Blade“-Strate­gie be­kannt - ist über­all zu be­obach­ten. Medizin­geräte werden preis­günstig an Kranken­häuser ab­gegeben, die eigent­li­chen Margen ent­stehen über Ver­brauchs­materialien und Service­verträge. Industrie­roboter werden mit Wartungs­paketen ver­kauft, die über die Lebens­dauer der Anlage ein Viel­faches des Kauf­preises ein­bringen. Unter­neh­mens­software wird günsti­ger lizen­ziert, dafür aber über Support-, Update- und Integrationspakete dauerhaft moneta­risiert.

Das Problem ist nicht das Modell als solches - es er­möglicht Her­stel­lern, in auf­wändi­ge Ent­wick­lung zu inves­tie­ren und die Kosten über lange Zeit­räume herein­zuspielen. Das Problem ist der struk­turelle Interes­sen­konflikt, den es er­zeugt: Wer an der War­tung verdient, hat einen ge­dämpften Anreiz, wartungs­arme Produkte zu ent­wickeln. Je komple­xer und störungs­anfälli­ger ein Produkt ist, desto mehr Service­umsatz ge­neriert es. Die Optimie­rung des Produkts und die Opti­mie­rung des Geschäftsmodells ziehen in verschiedene Richtungen.

Das ist ein klassisches Principal-Agent-Problem: Der Her­steller (Agent) hat Infor­mations­vorsprünge über die Wartungs­bedürftig­keit seines Produkts, die der Käufer (Principal) nicht hat, und seine Anreize sind nicht voll­ständig auf die Interessen des Käufers aus­gerichtet. Regulie­rung, Trans­parenz­pflichten und Wett­bewerb können diesen Konflikt mildern, aber selten auf­lösen.

Der Effizienzimperativ: Politischer Druck und technologische Überforderung

Regulierung als Beschleuniger

Technologischer Fortschritt folgt nicht allein dem Markt. Er wird in erheb­lichem Maße durch regulato­rische Rahmen­bedin­gun­gen ge­formt. In der Ge­schich­te der Indus­trie­gesell­schaft lassen sich immer wieder Phasen be­obachten, in denen poli­ti­scher Druck - ob durch Umwelt­gesetz­gebung, Sicher­heits­vorschrif­ten oder Effi­zienz­mandate - Branchen zu Innova­tions­sprüngen zwang, die der Markt allein nicht oder nur viel lang­samer erzeugt hätte.

Die Einführung von Abgasgrenzwerten für Kraft­fahr­zeuge in den 1970er Jah­ren ist ein klassi­sches Bei­spiel. Der Clean Air Act in den USA, die Abgas­normen in Europa - sie zwan­gen die Auto­mobil-Industrie zu erheb­li­chen Investi­tio­nen in Katalysa­toren, Ein­spritzsteue­rung und Motor­manage­ment. Kurz­fristig stiegen Kosten und Komplexi­tät. Mittel­fristig ent­stan­den saube­rere, effizien­tere Motoren. Und die regulato­rische Erfah­rung dieser Jahre legte den Grund­stein für das Know-how, das später in moder­nen Hybrid­antrieben und schließ­lich in Elektro­fahrzeu­gen zur An­wendung kam.

Aber dieselbe Geschichte zeigt auch die Risiken regula­tori­schen Drucks: Wenn die Ziele zu ambitio­niert und der Zeit­rahmen zu kurz sind, ent­steht ein Zwang zur Markt­einfüh­rung von Tech­nolo­gien, deren Reifegrad noch nicht aus­reicht. Die frühen Genera­tio­nen von Diesel­partikel­filtern waren in der Real­praxis störungs­anfälli­ger als im Labor. Erste Genera­tio­nen von Lithium-Ionen-Akkus in Elektro­fahrzeu­gen zeigten Schwächen bei Kälte, Lade­zyklen und in selte­nen Fällen bei der thermischen Stabilität. Diese Kinderkrank­hei­ten sind nicht zwingend ein Argu­ment gegen die Tech­nolo­gie - aber sie sind ein Argu­ment für einen reali­täts­nahen Zeit­plan, der den Reife­grad be­rück­sichtigt.

Das Grundproblem ist eine strukturelle Asymmetrie: Poli­tische Ziele werden in Legis­latur­perio­den gedacht, tech­nologi­sche Reife ent­wickelt sich in Jahr­zehnten. Wenn diese Zeit­horizonte aus­einander­fallen, trägt die Gesell­schaft die Kosten der Lücke.

Effizienz als Selbstzweck und seine Grenzen

Es gibt noch eine tiefere Dimension des Effizienz­imperativs, die selten expli­zit disku­tiert wird. In moder­nen Industrie­gesell­schaf­ten ist Effi­zienz nicht nur ein ökono­mi­sches Ziel, sondern ein kultu­relles. Die Über­zeugung, dass Ressour­cen opti­mal ein­gesetzt werden sollen, dass Ver­schwendung mora­lisch frag­würdig ist, und dass tech­nischer Fort­schritt sich primär in Effi­zienz­steige­rung aus­drückt, ist tief in das Denken von Ingenieu­ren, Managern, Ökono­men und Poli­tikern eingeschrieben.

Diese Überzeugung ist in vielem berechtigt. Effizienz schont Ressour­cen, senkt Kosten, er­möglicht breite­ren Zugang zu Gütern und Dienst­leistun­gen. Aber sie hat eine blinde Seite: Sie misst immer nur das, was gemessen werden kann. Direkter Energie­verbrauch lässt sich gut messen. Wartungs­kosten über den ge­samten Lebens­zyklus schon schlech­ter. Die gesell­schaft­li­chen Kosten von Komplexi­tät - Fachkräfte­mangel, Abhängig­keit von speziali­sier­ten Liefer­ketten, syste­mische An­fällig­keit - kaum.

Der Ökonom E.F. Schumacher beschrieb in *Small is Beautiful* (1973) eine alter­native Sicht­weise: Tech­nologie sollte nicht primär nach Effi­zienz, sondern nach An­gemes­sen­heit be­wertet werden - nach ihrer Fähig­keit, von Men­schen ver­standen, be­trieben und repa­riert zu werden. Diese „inter­mediate tech­nology“, wie Schumacher sie nannte, ist keine Ab­sage an Fort­schritt. Es ist eine Mahnung, dass Systeme, die niemand mehr voll­ständig ver­steht, eine eigene Art von Ineffi­zienz er­zeugen, die in den üb­li­chen Kenn­zahlen nicht auf­taucht.

Disruption als Befreiungsschlag aus der Komplexitätsfalle

Warum Disruption entsteht

Clayton Christensens Theorie der disrup­tiven Innova­tion, ent­wickelt in *The Innovator's Dilemma* (1997), beschreibt, wie etablier­te Unter­neh­men durch neue Wett­bewerber ver­drängt werden, nicht weil diese anfangs besser wären, sondern weil sie anders sind. Disrup­tive Innova­tio­nen be­ginnen typischer­weise am unteren Ende des Marktes oder in Nischen, die von etablier­ten Anbie­tern igno­riert werden, weil sie für deren Ge­schäfts­modell un­attraktiv er­scheinen. Sie sind zunächst simpler, billiger, schlechter in den etablier­ten Leistungs­katego­rien. Aber sie verbes­sern sich schnell, und irgend­wann sind sie gut genug für den Massen­markt - zu einem Bruch­teil des Preises und mit einem funda­mental ande­ren Komplexi­täts­profil.

Das Schlüsselwort ist das andere Komplexi­täts­profil. Disruptive Tech­nolo­gien um­gehen die Komplexi­täts­falle nicht durch bessere Opti­mie­rung des Be­stehen­den. Sie de­finie­ren das Problem neu. Der Transis­tor er­setzte nicht die bessere Vakuum­röhre; er machte die Frage, wie man eine bessere Vakuum­röhre baut, irrele­vant. Das Smart­phone ver­dräng­te nicht bessere Digital­kameras, MP3-Player und Naviga­tions­systeme - es machte den Be­griff „Gerät für eine Funktion“ grund­sätz­lich obsolet.

In diesem Sinne ist Disruption weniger eine tech­nologi­sche als eine konzep­tuelle Leis­tung: Sie durch­bricht die Pfad­abhängig­keit, die darin be­steht, dass be­stehende Tech­nolo­gien die Fragestel­lung defi­nie­ren, auf die weitere Entwick­lung ant­wortet.

Pfadabhängigkeit als Bremse

Pfadabhängigkeit ist ein zentrales Konzept zum Verständnis, warum Komplexi­täts­fallen so stabil sind. Dieser Be­griff, geprägt durch die Arbei­ten von Paul David und W. Brian Arthur in den 1980er Jah­ren, beschreibt, wie frühe Ent­scheidun­gen in der Entwick­lung einer Tech­nolo­gie spätere Op­tio­nen ein­schrän­ken. Das be­kanntes­te Beispiel ist die QWERTY-Tastatur, die für mecha­nische Schreib­maschinen ent­wickelt wurde, um häufig be­nutzte Buch­staben aus­einander­zuhalten und so das Verhaken der Typen­hebel zu ver­hindern. Diese Be­grün­dung ist längst obsolet, aber die Tastatur ist ge­blie­ben, weil die Um­schu­lung von Milliar­den von Men­schen teurer wäre als der Effizienz­verlust durch ein sub­opti­males Layout.

In komplexen Industriesystemen ist Pfad­abhängig­keit noch mächti­ger. Normen und Standards bauen auf be­stehen­den Tech­nolo­gien auf. Lieferketten sind auf be­stimm­te Materia­lien und Prozesse aus­gelegt. Aus­bildungs­systeme reprodu­zieren vor­hande­nes Wissen. Patent­portfolios sichern be­stehende Lösun­gen ab. Und die Men­schen, die über Investi­tions­entschei­dungen be­finden, haben ihre Karriere im be­stehenden System auf­gebaut. All das macht inkremen­telle Ver­besse­rung attrak­ti­ver als radikale Neu­ausrich­tung - selbst wenn die Signale über­deut­lich sind, dass das be­stehende System an seine Grenzen stößt.

Es ist daher kein Zufall, dass die wirk­lich großen Disrup­tio­nen der Ge­schich­te selten von den etablier­ten Markt­führern kamen. Kodak hatte das Patent auf die digi­tale Kamera und begrub sie. Nokia wusste, dass das Smart­phone kommen würde, und unter­schätzte das Tempo. Die Eisen­bahngesell­schaften des 19. Jahr­hun­derts hätten Auto­mobil-Unter­nehmen werden können und wurden statt­dessen von ihnen ver­drängt. Wer im be­stehen­den System zu viel zu ver­lieren hat, ist struktu­rell schlechter positio­niert, das nächste System zu schaffen.

Der Beitrag von Grundlagenforschung und öffentlicher Infrastruktur

Wenn disruptive Innovationen selten von etab­lier­ten Markt­führern kommen, woher kommen sie dann? Die Wirt­schafts­histori­kerin Mariana Mazzucato hat in *The Entrepreneu­rial State* (2013) eindrück­lich dokumentiert, dass ein erheb­li­cher Teil der Basis­technolo­gien, die moder­ne Disrup­tio­nen er­möglichen, auf öffent­lich finanzier­ter Grund­lagen­forschung beruht. Das Internet ent­stand aus einem Militär­projekt der US-Regierung. Die GPS-Tech­nologie, die Smart­phones intelli­gent macht, ist ein öffent­li­ches Gut, finan­ziert vom ameri­ka­nischen Ver­teidigungs­ministe­rium. Solar­zellen­forschung, Batterie­technolo­gie, die mRNA-Technolo­gie hinter den COVID-Impf­stoffen - all das hat tiefe Wurzeln in staat­lich ge­förder­ter Wissen­schaft.

Das bedeutet nicht, dass Märkte keine Rolle spie­len. Die Kommer­ziali­sie­rung, Skalie­rung und iterative Ver­besse­rung dieser Basis­technolo­gien ist eine genuine Markt­leis­tung. Aber die grund­legende wissen­schaft­liche Infra­struk­tur, auf der Disrup­tio­nen auf­bauen, ist häufig ein öffent­li­ches Gut. Das hat poli­tische Implika­tionen: Wer über Forschungs­budgets ent­schei­det, ent­schei­det mit darüber, welche Disrup­tio­nen in zwanzig oder dreißig Jahren mög­lich sein werden.

Wirtschaftliche und gesellschaftliche Folgen des Übergangs

Schöpferische Zerstörung und ihre Verteilungswirkung

Joseph Schumpeter prägte den Begriff der „schöpfe­ri­schen Zer­störung“ als Be­schreibung des Grund­prozesses kapitalis­ti­scher Dynamik: Neues ent­steht, indem Altes ver­nichtet wird. Neue Indus­trien, neue Berufe, neue Produkte ent­stehen aus der Disrup­tion be­stehen­der Struk­turen. Lang­fristig steigt der gesell­schaft­liche Wohl­stand. Kurz­fristig ent­stehen erheb­liche Ver­werfun­gen.

Diese Verwerfungen sind nicht abstrakt. Sie treffen Men­schen. Der Maschinen­führer in einer Drucke­rei, der mit dem Auf­kommen des Digital­satzes seinen Beruf ver­liert. Der Fach­arbeiter in der Ge­triebe­fertigung, dessen spezifi­sches Wissen mit dem Elektro­motor wertlos wird. Der Wartungs­techniker, dessen jahre­lange Exper­tise an einer Tech­nolo­gie über­holt wird. In der klassi­schen ökono­mi­schen Theorie wird dieser Übergangs­schmerz durch höhere Löhne in neuen Sekto­ren und die allgemeine Wohl­stands­steige­rung kompen­siert. In der Reali­tät ist die Kompensa­tion unvoll­ständig, ungleich ver­teilt, und setzt zeit­lich ver­setzt ein.

Es gibt eine räumliche Dimension dieser Un­gleich­heit, die in der Theorie­diskussion oft unter­belich­tet bleibt. Tech­nologi­sche Disrup­tion ver­nichtet nicht nur Berufe, sondern ganze regio­nale Wirt­schafts­struk­turen. Das Ruhr­gebiet, das englische Mid­lands, der amerika­nische Rust Belt - das sind die sicht­bars­ten Spuren großer Tech­nologie­übergänge im 20. Jahr­hun­dert. Die neuen Indus­trien ent­stehen selten an den­selben Orten wie die alten. Silicon Valley ist nicht Detroit, und der neue Jobmarkt für Soft­ware-Entwick­ler spielt sich nicht in den­selben Gemein­den ab wie die unter­gehende Stahl­industrie.

Diese räumliche Konzentra­tion von Transfor­mations­kosten ist ein poli­tisch hoch­explosives Phänomen. Regionen, die Indus­trien ver­lie­ren, verlie­ren nicht nur Arbeits­plätze, sondern Steuer­einnahmen, Infra­struktur, Bildungs­einrichtun­gen, soziale Netz­werke. Menschen, die nicht mobil sind - wegen Familie, Eigentum, Bindung an eine Gemein­schaft -, können den Wandel nicht ein­fach indivi­duell kompen­sieren. Das erzeugt poli­ti­schen Unmut, der sich in Protest­stimmen, Miss­trauen gegen­über tech­nologi­schen Eliten und Wider­stand gegen weitere Innova­tions­zyklen aus­drückt. Es ist kein Zufall, dass in den Regio­nen, die vom wirt­schaft­li­chen Struktur­wandel am härtes­ten ge­troffen wurden, populis­tische Bewe­gun­gen beson­ders starken Zulauf finden.

Die Frage der Systemkompetenz

Ein häufig übersehener gesell­schaft­li­cher Effekt steigender Tech­nologie­komplexi­tät ist der schleichen­de Verlust von System­kompetenz. Wenn Tech­nolo­gien so komplex werden, dass sie nur noch von hoch­speziali­sierten Fach­leuten ver­stan­den, betrie­ben und repariert werden können, ent­stehen neue Ab­hängig­kei­ten - von speziali­sierten Unter­neh­men, konzen­trierten Liefer­ketten, proprie­tären Wissens­beständen.

Diese Abhängigkeiten haben ihre eigene Fragili­tät. Die COVID-19-Pandemie hat schlag­licht­artig be­leuch­tet, wie an­fällig globale, hoch­speziali­sierte Liefer­ketten für externe Schocks sind. Der welt­weite Halb­leiter­mangel der Jahre 2021 bis 2023 zeigte, wie die Konzentra­tion hoch­komplexer Ferti­gung auf wenige Stand­orte ganze Indus­trien lahm­legen kann. Die Debatte um Energie­abhängig­keit hat offen­gelegt, dass maximale Effi­zienz durch globale Arbeitstei­lung und mini­male Redundanz mit Resilienz in einem fundamen­talen Spannungs­verhältnis steht.

Effizienz und Resilienz sind keine kompati­blen Ziele. Effizien­te Systeme sind schlank, ohne Redun­danz, auf einen Be­triebs­zustand opti­miert. Resiliente Systeme halten Puffer vor, haben Redundan­zen, können auf Alter­nati­ven zurück­greifen. In den ver­gangenen Jahr­zehnten hat die Logik der Effizienz in Poli­tik und Wirt­schaft fast durch­gängig ge­wonnen. Die Erfah­run­gen der jüngs­ten Krisen legen nahe, dass diese Ge­wich­tung über­dacht werden sollte.

Technologische Souveräni­tät als neue politische Kategorie

Die beschriebenen Abhängig­kei­ten haben auch eine geopoli­tische Dimension, die zu­nehmend in den Vor­der­grund tritt. Wer Schlüssel­technolo­gien be­herrscht - die Ferti­gung fort­geschrit­te­ner Halb­leiter, die Verarbei­tung seltener Erden, die Entwick­lung von Kern­fusions­technolo­gie oder KI-Infra­struk­tur -, hat strate­gischen Ein­fluss weit über den ökono­mischen Wert dieser Tech­nolo­gien hinaus.

Das Konzept der „technologi­schen Souverä­ni­tät“ hat des­halb in den ver­gange­nen Jahren Eingang in poli­tische Programme ge­funden, in Europa ebenso wie in den USA und China. Die Logik ist, dass bestimmte Tech­nolo­gien zu wichtig für die wirt­schaft­liche und militä­rische Handlungs­fähig­keit eines Staates sind, um sie voll­stän­dig dem globa­len Markt zu über­lassen. Das ist eine Ab­kehr von der Frei­handels­logik, die die letzten Jahr­zehnte domi­nierte - und sie ist nicht ohne Kosten. Subven­tio­nierte heimische Produk­tion ist teurer als impor­tierte. Doppelte Liefer­ketten ver­schwenden Ressour­cen. Technolo­gi­scher Nationalis­mus kann Innovations­zyklen ver­lang­samen.

Aber die Alternative - vollständige Abhängig­keit von global konzen­trier­ten Kompe­ten­zen und Liefer­ketten - hat sich als zu fragil er­wiesen. Die Frage ist nicht, ob eine ge­wisse Renationa­lisie­rung von Schlüssel­technolo­gien statt­finden wird. Sie findet bereits statt. Die Frage ist, wie sie so ge­stal­tet werden kann, dass sie Resilienz er­höht, ohne Effi­zienz und Innova­tions­kraft dauerhaft zu unter­graben.

Wege aus der Komplexitätsfalle: Was die Geschichte lehrt

Disruption als Befreiung, nicht als Selbstläufer

Die Technikgeschichte kennt keine automa­ti­schen Disrup­tionen. Jeder große Tech­nologie­übergang war das Ergeb­nis eines komplexen Zu­sammen­spiels aus wissen­schaft­lichem Wissen, unter­nehmeri­scher Initia­tive, poli­ti­schen Rahmen­bedin­gun­gen und gesell­schaft­li­cher Akzep­tanz. Dampf­maschine, Elektri­fi­zie­rung, Digitali­sie­rung - sie alle hatten Vor­läufer, Wider­stände, Rück­schläge und lange Latenz­phasen, bevor sie ihren Sieges­zug an­traten.

Was diese Übergänge gemeinsam haben, ist der Moment, in dem die neue Tech­nolo­gie nicht mehr nur besser in einzel­nen Dimen­sionen ist, sondern grund­sätz­lich anders - ein­facher zu skalie­ren, ein­facher zu warten, zugäng­li­cher für mehr Men­schen und An­wendungs­fälle. Elektro­motoren haben weniger beweg­liche Teile als Ver­bren­nungs­motoren. Digita­le Speicher haben keine mecha­nischen Kompo­nen­ten, die ver­schleißen. Solar­module produ­zieren Strom ohne beweg­liche Teile, ohne Brennstofflogistik, ohne Emissionen.

Diese strukturelle Einfachheit - nicht in der Her­stel­lung, aber im Betrieb - ist oft das ent­scheiden­de Merk­mal disrup­tiver Tech­nolo­gien. Sie ver­schie­ben Komplexi­tät aus dem Betrieb in die Ferti­gung, wo sie durch Skalie­rung und Standardi­sie­rung besser be­herrschbar ist.

Gestaltung statt Abwarten

Für Politik und Gesellschaft folgt daraus eine klare Handlungs­empfehlung: Disrup­tion kann und sollte ge­staltet werden. Das be­deutet erstens, in Grund­lagen­forschung zu inves­tieren, weit bevor ab­zusehen ist, welche kommer­ziel­len An­wendun­gen ent­stehen werden. Es be­deutet zwei­tens, regula­to­rische Rahmen­bedin­gun­gen zu schaf­fen, die Experi­menta­tion er­lauben und Nischen­anwendun­gen schüt­zend fördern, ohne etab­lierte Tech­nolo­gien künst­lich am Leben zu halten, wenn ihre Grenzen erreicht sind. Es bedeutet drit­tens, die sozialen Kosten des Über­gangs ernst zu nehmen und institutio­nell ab­zufedern - durch Um­schulungs­programme, regio­nale Entwicklungs­fonds, und eine ehr­liche poli­tische Kommunika­tion darüber, dass Tech­nologie­übergänge Gewinner und Verlierer schaffen.

Was es nicht bedeutet: den Übergang zu er­zwingen, bevor die Tech­nolo­gie reif ist. Regulato­rischer Druck kann Innova­tions­rich­tun­gen setzen. Er kann aber nicht physika­lische Reife­prozesse be­schleu­nigen. Die Erfah­rung zeigt, dass der Versuch, das zu tun, typischer­weise dazu führt, dass unreife Tech­nolo­gien in den Markt ge­drückt werden, die mehr ver­sprechen als sie halten können - mit den ent­sprechen­den wirt­schaft­li­chen Folgen, die dann als Argu­mente gegen die Tech­nolo­gie selbst instrumentalisiert werden.

Komplexität als Zwischenzustand

Komplexe, wartungsintensive Technolo­gie ist kein End­punkt, sondern ein Zwischen­zustand. Sie ent­steht, wenn eine Tech­nolo­gie­linie aus­gereizt wird, wenn die Effi­zienz­gewinne kleiner werden und die Kosten ihrer Er­kaufung größer. Sie ist das Symp­tom einer Reife, die in Über­komplexi­tät umge­schlagen ist - und oft das Zeichen, dass eine Disrup­tion über­fällig ist.

Aber Disruption ist kein Naturgesetz, das automa­tisch ein­tritt. Sie ist das Ergeb­nis von Investi­tio­nen in Wissen, von unter­nehme­ri­schem Mut, von poli­ti­scher Weit­sicht und ge­sell­schaft­li­cher Be­reit­schaft, Über­gänge zu akzep­tieren und ihre Kosten solida­risch zu tragen. Die Ge­schichte des tech­nolo­gi­schen Fort­schritts ist keine Ge­schichte des un­ver­meid­li­chen Auf­stiegs. Sie ist eine Ge­schichte mensch­li­cher Ent­scheidun­gen - über Forschungs­priori­täten, Investi­tionen, Regulie­rung, und den Umgang mit denen, die im Über­gang zurück­bleiben.

Das Paradox des Fortschritts - dass er sich durch Komplexi­tät selbst be­grenzt, um sich durch Disrup­tion zu be­freien - lässt sich nicht auf­lösen. Aber es lässt sich be­wusster ge­stal­ten. Und das ist viel­leicht der wichtigs­te Beitrag, den ein Ver­ständ­nis der Technik­geschich­te für die Gegen­wart leisten kann: nicht Zu­versicht, dass es schon gut geht, sondern Klar­heit darüber, was getan werden müsste, damit es gut geht.


Zurück  •  nach oben  • Startseite Economics-Digest.com