Werner Glinka

KI ARBEIT KULTUR

Noch nicht

10. Mär 2026

Letzte Woche stufte das Pentagon Anthropic — das KI-Unternehmen, dessen CEO die beharrlichste Stimme der Vorsicht in der Branche war — als Lieferkettenrisiko für die nationale Sicherheit ein. [1] Die Einstufung, die historisch ausländischen Gegnern vorbehalten war, erfolgte, weil Anthropic sich weigerte, zwei Bedingungen aus seinen Militärverträgen zu streichen: keine vollautonomen Waffen und keine Massenüberwachung von US-Bürgern. [2]

Innerhalb von Stunden hatte OpenAI einen Vertrag unterzeichnet, um Anthropic in Geheimdienstumgebungen zu ersetzen. [1] Die Regierung sanktionierte das Unternehmen, das versuchte, Grenzen zu setzen. Ein Wettbewerber sprang ein, um seinen Platz einzunehmen. Wer verstehen will, was KI mit unserer Demokratie macht, könnte bei den wirtschaftlichen Zahlen anfangen. Aber man lernt vielleicht mehr, wenn man beobachtet, was passierte, als ein einziges Unternehmen versuchte, Nein zu sagen.

Die Ökonomie

Ich schreibe schon seit einer Weile über die Ökonomie der KI-Verdrängung, und das Argument, das ich immer wieder vorbringe, ist schlicht genug, dass es eigentlich nicht kontrovers sein sollte: Unternehmen nutzen KI, um die Arbeitsplätze derjenigen zu eliminieren, die ihre Produkte kaufen. Das ist keine Vorhersage. Salesforce strich Tausende von Support-Stellen und erhöhte gleichzeitig die Preise. Microsoft tat dasselbe. Quer durch die amerikanische Wirtschaft wurden 2025 1,2 Millionen Stellen gestrichen. Nur 55.000 davon wurden offiziell der KI zugeschrieben — aber wie ich in „Wer kauft, was wir bauen?" argumentiert habe, weiß jeder, der schon einmal ein Unternehmen „Restrukturierung für mehr Effizienz" verkünden sah, während es gleichzeitig seine KI-Investitionen feierte, dass die offizielle Zuordnung eine Fiktion ist. Unternehmen haben jeden Anreiz, das Etikett zu vermeiden. Die Einsparungen flossen nicht an die Verbraucher oder in neue Einstellungen. Sie flossen in 1,6 Billionen Dollar an Dividenden und Aktienrückkäufe. [3]

So soll die Geschichte eigentlich nicht laufen. Wenn Sam Altman verspricht, dass KI alles „radikal billiger" machen wird, beruft er sich auf eine Theorie, die in der Volkswirtschaftslehre einen Namen hat — den deflationären Nutzen der Automatisierung. Die Idee ist, dass mit sinkenden Produktionskosten auch die Preise sinken und alle profitieren. Aber diese Theorie setzt voraus, dass Unternehmen die Einsparungen weitergeben. Das tun sie nicht. Sie geben sie an Aktionäre weiter, an Führungskräfte, an die wenigen, die die Maschinen besitzen. Henry Ford verstand 1914, dass seine Arbeiter genug verdienen mussten, um seine Autos kaufen zu können. Ein Jahrhundert später haben die Menschen, die die mächtigste Technologie der Geschichte bauen, diese Lektion ignoriert — oder entschieden, dass sie nicht mehr gilt.

Die Standardantwort ist Umschulung. Es ist immer Umschulung. Ich bin in Gelsenkirchen aufgewachsen, im Ruhrgebiet, wo ich dieses Drehbuch über Jahrzehnte hinweg habe ablaufen sehen. Die Kohlezechen schlossen. Die Stahlwerke folgten. Arbeiter wurden umgeschult für Jobs, die anschließend automatisiert, ausgelagert oder schlicht nie im versprochenen Umfang entstanden. Umschulung ist ein politischer Reflex, keine Wirtschaftsstrategie. Sie macht die Verdrängung eine Weile unsichtbar, verteilt die Kosten über Jahre statt über Quartale und erlaubt allen Beteiligten zu behaupten, sie würden etwas tun.

Aber hier unterscheidet sich KI von Kohle, Stahl oder den ersten Wellen der Software-Automatisierung. Diese Umbrüche trafen zuerst das untere Ende der Wertschöpfungskette — Handarbeit, Routineverarbeitung, repetitive Montage. Den Arbeitern wurde gesagt, sie sollten aufsteigen. Mehr Bildung. Programmieren lernen. Die Fähigkeiten entwickeln, die Maschinen nicht nachahmen können: Urteilsvermögen, Analyse, kreative Synthese. KI kehrt diese Logik vollständig um. Sie greift die gesamte Wertschöpfungskette an. Sie schreibt juristische Schriftsätze, entwickelt Marketingstrategien, produziert Code und entwirft Architekturpläne. Es gibt keine höhere Sprosse. Die Leiter selbst wird von oben demontiert.

Anfang dieses Monats veröffentlichte Anthropics Forschungsteam eine Studie, die versucht zu messen, was tatsächlich auf dem Arbeitsmarkt passiert. [4] Die Ergebnisse sind sorgfältig, rigoros und genau die Art von Analyse, die politische Entscheidungen informieren sollte. Aufbauend auf ihrem laufenden Economic Index — der seit 2025 die reale KI-Nutzung quer durch Berufsgruppen erfasst — stellten sie fest, dass KI unverhältnismäßig stark auf gut ausgebildete, besser bezahlte Fachkräfte zielt. [5] Programmierer, Kundendienst-Mitarbeiter und Datenerfasser zeigten die höchste Abdeckung ihrer Aufgaben durch KI-Systeme. Die professionelle Klasse, die Wissensarbeiter — sie sind die Zielscheibe.

Die Studie fand auch etwas, das diejenigen, die sie als Beruhigung zitieren, nicht sorgfältig genug lesen: einen Rückgang der Jobfindungsrate um 14 Prozent bei Arbeitnehmern im Alter von 22 bis 25 Jahren in KI-exponierten Berufsfeldern, verglichen mit 2022. [4] Die Einstiegspipeline verengt sich. Junge Menschen, die für professionelle Karrieren ausgebildet wurden, stehen vor einer Tür, die sich schließt. Das ist keine Abstraktion. Es ist eine Generation, die entdeckt, dass die Investition, die sie getätigt hat — die Abschlüsse, die Schulden, die Jahre der Vorbereitung — sich möglicherweise nicht in die versprochenen Karrieren umwandeln lässt.

Und dann gibt es die Schlagzeilen-Erkenntnis, die von Leuten zitiert wird, die glauben wollen, dass der Umbruch beherrschbar ist: „kein systematischer Anstieg der Arbeitslosigkeit" bei Beschäftigten in stark exponierten Berufen. [4] Die Anthropic-Forscher weisen sorgfältig darauf hin, dass die aktuelle KI-Nutzung weit hinter ihrem theoretischen Potenzial zurückbleibt, dass rechtliche, technische und Verifikationshürden die Einführung bremsen und dass ihr Rahmenwerk darauf ausgelegt ist, gefährdete Jobs zu identifizieren, „bevor die Verdrängung sichtbar wird."

Noch nicht

Das sind die zwei gefährlichsten Worte der Wirtschaftsgeschichte. Das Ruhrgebiet zeigte am ersten Tag auch keine katastrophalen Arbeitslosenzahlen. Der Niedergang war graduell. Gemeinden passten sich an, schraubten ihre Ansprüche herunter, arrangierten sich. Menschen gingen weg, aber langsam. Dienstleistungen schrumpften, aber schrittweise. Und dann, über eine Zeitspanne, die sich für die Betroffenen lang anfühlte, aber im Rückblick plötzlich wirkt, brach der Boden weg. Nicht weil an einem bestimmten Dienstag etwas Dramatisches geschah, sondern weil die tragenden Strukturen über Jahre still entfernt worden waren und eines Tages nichts mehr da war, das die Last tragen konnte.

„Noch nicht" ist keine Beruhigung. Es ist eine Diagnose. Es bedeutet, dass der zugrunde liegende Zustand fortschreitet, während die sichtbaren Symptome noch im Normalbereich liegen.

Die Quelle

Ein Skeptiker könnte fragen, warum wir der Forschung, die ein KI-Unternehmen über die Auswirkungen seiner eigenen Technologie veröffentlicht, besonderes Gewicht beimessen sollten. Die Frage ist berechtigt. Die Antwort liegt in dem, was Anthropic über seine Bereitschaft gezeigt hat, gegen seine eigenen finanziellen Interessen zu handeln.

Dario Amodei, Anthropics CEO, ist der einzige Leiter eines großen KI-Unternehmens, dessen Vorsicht glaubwürdig ist — weil seine Vorsicht ihn etwas kostet. Er veröffentlichte eine Responsible Scaling Policy. Er publizierte Forschungsergebnisse, die frühe Anzeichen von Arbeitsmarktverdrängung durch seine eigene Technologie zeigten. In seinem Essay „Machines of Loving Grace" entwarf er eine bedingte Vision der KI-Vorteile — bedingt durch richtige Governance, durch breite Verteilung der Gewinne, durch die Verhinderung von Machtkonzentration. [6] Er war vorsichtig genug zu sagen: Diese Ergebnisse sind nicht automatisch. Sie erfordern bewusste Entscheidungen.

Und dann traf er eine. Amodei zog zwei Linien in Anthropics Militärverträgen. [7] Nicht zwanzig. Zwei. Keine Massenüberwachung von US-Bürgern. Keine vollautonomen Waffen. Die Antwort des Pentagon war, sein Unternehmen als Lieferkettenrisiko für die nationale Sicherheit einzustufen — eine Bezeichnung, die historisch ausländischen Gegnern vorbehalten war. [1] Der Präsident ordnete an, dass Bundesbehörden Anthropics Technologie nicht mehr nutzen sollen. OpenAI, dessen Führung keine vergleichbaren Zusagen gemacht hat, sprang ein, um die Verträge zu übernehmen.

Einige Kommentatoren, darunter Bruce Schneier, haben argumentiert, dass Amodeis Haltung primär eine Frage der Markenpositionierung sei. Mag sein. Bismarck sagte es am besten: „Das Motiv ändert nichts an der Wirkung." Ob Amodei aus tiefer Überzeugung oder aus Marktkalkül handelte — die Wirkung war dieselbe: Anthropic weigerte sich, Zugeständnisse zu machen. Zwei Linien hielten. Das ist, was zählt.

Der Punkt ist nicht die Geopolitik. Der Punkt ist, was das über die Forschung aussagt. Wenn ein Unternehmen Daten veröffentlicht, die zeigen, dass seine eigene Technologie beginnt, Berufseinsteiger zu verdrängen und den Arbeitsmarkt umzugestalten — und dasselbe Unternehmen gerade Hunderte Millionen Dollar an Verteidigungsaufträgen geopfert hat, statt bei ethischen Grundsätzen Kompromisse einzugehen —, dann liest man kein Marketingdokument. Man liest die Arbeit von Menschen, die unter realen Kosten bewiesen haben, dass sie die gesellschaftlichen Folgen ihrer Technologie ernst nehmen. Das „Noch nicht" in ihren Ergebnissen verdient es, in diesem Kontext gelesen zu werden.

Demokratie

Was also macht das alles mit der Demokratie?

Die Frage wird meist mit einer Liste von Bedrohungen beantwortet — Desinformation, Überwachung, Wahlmanipulation. Die sind real, aber sie sind Symptome. Die strukturelle Bedrohung ist tiefer und wirkt auf einer längeren Zeitachse.

Demokratie hat immer von einer breiten Mittelschicht abgehangen — von Menschen mit genug ökonomischer Sicherheit, um am öffentlichen Leben teilzunehmen, genug Autonomie, um unabhängig zu denken, genug Anteil am System, um es zu verteidigen. Das sind die Menschen, die in Schulbeiräten sitzen, lokale Unternehmen führen, sich in Wahlkämpfen engagieren und bei Bürgerversammlungen auftauchen. Nicht weil sie tugendhaft sind, sondern weil sie die Kapazität dafür haben. Ökonomische Stabilität schafft bürgerschaftliche Handlungsfähigkeit.

Was passiert, wenn KI diese Schicht im nächsten Jahrzehnt aushöhlt? Nicht auf einen Schlag — graduell, so wie das Ruhrgebiet sich abwärts entwickelte. Junge Fachkräfte finden keine Einstiegsstellen. Beschäftigte in der Mitte ihrer Karriere werden in schlechter bezahlte Jobs verdrängt oder ganz aus dem Arbeitsmarkt gedrängt. Die Einsparungen fließen nach oben. Die Steuerbasis schrumpft. Öffentliche Dienstleistungen verfallen. Die Menschen, die einst das Rückgrat demokratischer Teilhabe bildeten, werden zu einer verunsicherten, prekären Bevölkerung, die Niedergang verwaltet, statt Zukunft zu gestalten.

Die Vermögenskonzentration, die bereits im Gange ist, beschleunigt das. Nach den Distributional Financial Accounts der Federal Reserve besaß das oberste eine Prozent der US-Haushalte im dritten Quartal 2025 31,7 Prozent des gesamten Vermögens — der höchste Anteil, seit die Erhebung 1989 begann. [8] In absoluten Zahlen hielt dieses eine Prozent etwa 55 Billionen Dollar, ungefähr so viel wie das Gesamtvermögen der unteren 90 Prozent. [9] KI verstärkt diese Asymmetrie. Die Vorteile der Technologie kommen denen zugute, die sie besitzen und einsetzen. Ihre Kosten tragen diejenigen, die sie ersetzt. Jeder Prozentpunkt „Produktivitätsgewinn", der sich in Personalabbau statt in Lohnwachstum übersetzt, verbreitert die Kluft.

Wir beobachten, wie sich eine Rückkopplungsschleife zusammensetzt. KI konzentriert wirtschaftliche Macht. Konzentrierte wirtschaftliche Macht untergräbt demokratische Teilhabe. Geschwächte demokratische Institutionen verlieren die Fähigkeit, KI zu regulieren. Die Technologie schreitet unkontrolliert voran. Der Kreislauf wiederholt sich.

Und die Institution, die diesen Kreislauf durchbrechen soll — der Kongress — ist strukturell dazu unfähig. Das ist keine Frage individueller Kompetenz oder parteipolitischen Versagens. Es ist ein Konstruktionsproblem. Die Menschen, die die folgenreichste Technologie des Jahrhunderts regulieren sollen, fehlt das tiefere Verständnis, wie sie funktioniert. Sie sind darauf angewiesen, dass die Führungskräfte, die sie bauen, sie ihnen erklären. Wenn ein Senator verstehen muss, was große Sprachmodelle können, kommt das Briefing von denselben Unternehmen, die von minimaler Regulierung profitieren. Die Technologiebranche ist gleichzeitig die wichtigste Quelle technischer Expertise für die Gesetzgeber, eine der größten Quellen für Wahlkampfspenden und die Entität, die am dringendsten reguliert werden müsste. Das ist keine Beziehung, die Aufsicht hervorbringt. Es ist Vereinnahmung.

Selbst wenn eine Handvoll Abgeordneter die Technologie eigenständig verstünde — die Zeithorizonte stimmen nicht. Mitglieder des Repräsentantenhauses operieren in Zweijahrzyklen. KI-Verdrängung entfaltet sich über ein Jahrzehnt. Sie produziert nicht die Art akuter, sichtbarer Krise, die Wähler oder Spender innerhalb einer einzigen Wahlperiode mobilisiert — sie produziert „noch nicht", was politisch nicht von „nie" zu unterscheiden ist. Es gibt kein politisches Kapital dafür, ein strukturelles Problem anzugehen, das erst nach der nächsten Wahl in den Arbeitslosenzahlen auftaucht. Es gibt erhebliche politische Kosten, wenn man die Branche verärgert, die den Wahlkampf finanziert. Also hält der Kongress Anhörungen ab, stellt Fragen, die offenbaren, wie wenig er versteht, und produziert nichts. Die mächtigste Technologie einer Generation entwickelt sich im Wesentlichen unreguliert — nicht weil Regulierung unmöglich ist, sondern weil die dafür zuständige Institution für ein völlig anderes Anreizsystem optimiert ist.

Die Menschen, die das am klarsten sehen, sind ironischerweise die Reichsten. Bloomberg berichtete, dass Führungskräfte aus dem Silicon Valley seit Jahren millionenteure Überlebensbunker in Neuseeland kaufen, aus Texas verschifft und dreieinhalb Meter tief vergraben — ausgestattet für langfristiges Bewohnen im Falle, wie ein Bunkerhersteller es ausdrückte, „einer Revolution oder einer Veränderung, bei der die Gesellschaft die Ein-Prozent-Leute verfolgt." [10] Reid Hoffman, Mitgründer von LinkedIn, schätzte, dass mehr als 50 % der Tech-Milliardäre einen Fluchtplan haben. [11] Sie investieren nicht in soziale Lösungen oder demokratische Widerstandsfähigkeit. Sie bauen Fluchtwege. Wenn die Menschen, die die Dynamik eines Systems am besten verstehen, ihren Ausstieg planen statt seine Reparatur — dann sagt das etwas darüber, was sie erwarten.

Gelsenkirchen

Anthropics Forschungspapier schließt mit dem Appell, bessere Messrahmen zu entwickeln, um gefährdete Jobs zu identifizieren, bevor die Verdrängung sichtbar wird. Das ist genau das, was eine verantwortungsvolle Forschungsorganisation tun sollte. Messung ist wichtig.

Aber Messung ist kein Handeln. Und die Lücke zwischen „noch nicht" und „zu spät" ist kürzer, als irgendjemand mit einem vierteljährlichen Earnings Call zugeben will.

Ich weiß, wie „noch nicht" aussieht. Ich bin darin aufgewachsen.

Mein Vater war Bergmann in Gelsenkirchen-Horst, im Herzen des Ruhrgebiets. In den 1960er Jahren war Gelsenkirchen eine Industriestadt mit einem klaren Gesellschaftsvertrag: Du arbeitest hart, du verdienst deinen Lebensunterhalt, du gründest eine Familie. Die Zechen und Stahlwerke beschäftigten 650.000 Menschen in der gesamten Region. Die Arbeit war brutal, aber es war Arbeit, und sie trug ein gesellschaftliches Leben — Fußballvereine, Kirchengemeinden, Kneipen im Viertel, die ganze Textur einer funktionierenden Gesellschaft.

Der Niedergang kündigte sich nicht an. Die Zechen schlossen, eine nach der anderen. Arbeiter wurden umgeschult für Jobs in Branchen, die selbst schrumpften, oder für Stellen, die nie im versprochenen Umfang entstanden. Junge Leute gingen dorthin, wo es Arbeit gab. Die Bevölkerung schrumpfte. Dienstleistungen schrumpften. Die Steuerbasis erodierte. In jeder Phase versicherten die Verantwortlichen, dass der Übergang funktioniere — sie maßen weiter, schulten weiter um, versprachen weiter.

Heute hat Gelsenkirchen eine Armutsquote von fast 38 Prozent [12] — in einem Land, in dem der Durchschnitt bei 15 liegt. Unter jungen Menschen zwischen 15 und 24 Jahren hat die Stadt die höchste Sozialhilfe-Abhängigkeitsrate in ganz Deutschland. [13] Die Stadt hat seit der Generation meines Vaters mehr als 30 Prozent ihrer Bevölkerung verloren. Die Beschäftigung in Kohle und Stahl in der Region sank von 650.000 auf 73.000. [14] Die letzte Zeche in Gelsenkirchen schloss im Jahr 2000. Dreitausend Bergleute verloren an diesem Tag ihren Job, aber die wahren Verluste hatten sich über Jahrzehnte angesammelt, bevor irgendjemand sie zählte. Die Stadt, die einst ein industrieller Motor war, wird heute manchmal die gefährlichste Stadt Deutschlands genannt. Das bricht mir das Herz. Aber was erwartet man, wenn fast vier von zehn Einwohnern in Armut leben?

Nichts davon geschah plötzlich. Es gab keine einzelne Katastrophe, keinen dramatischen Zusammenbruch, der eine Notfallreaktion erzwungen hätte. Es war ein langer, stiller Prozess des Türenschließens, des Verengens von Möglichkeiten, des Sich-Herunter-Anpassens — bis die Anpassung selbst zum Dauerzustand wurde. Als die Daten bestätigten, was jeder dort längst wusste, war eine Generation verloren — und eine zweite wuchs in den Folgen auf.

So sieht „noch nicht" von innen aus. Keine Krise. Eine langsame Auszehrung, die die Messinstrumente erst als Notfall registrieren, wenn sie strukturell geworden ist — wenn die bürgerschaftliche Handlungsfähigkeit, die nötig wäre, um zu reagieren, selbst von genau dem Prozess erodiert wurde, den sie hätte angehen müssen.

Wir befinden uns jetzt in dieser Phase, in diesem Land, mit dieser Technologie. Die Daten sagen „noch nicht". Die Struktur sagt „bereits im Gange". Die glaubwürdigste Forschung, die wir haben — veröffentlicht von einem Unternehmen, das bewiesen hat, dass es diese Folgen ernst nimmt — zeigt, dass die frühen Anzeichen bereits sichtbar sind, wenn wir bereit sind, sie zu lesen.

Die Frage ist nicht, ob KI die Wirtschaft transformieren wird. Das wird sie. Die Frage ist nicht, ob diese Transformation Risiken für die Demokratie birgt. Das tut sie. Die Frage ist, ob wir auf das reagieren, was die Struktur uns sagt, oder abwarten, bis die Daten nachziehen — und dann entdecken, wie Gelsenkirchen es entdeckte, dass es dann nichts mehr gibt, das zu retten wäre.


Quellen

[1] NPR, „Pentagon labels AI company Anthropic a supply chain risk 'effective immediately'," 6. März 2026.

[2] Axios, „Anthropic sues Pentagon over rare 'supply chain risk' label," 9. März 2026.

[3] Entlassungsdaten von Challenger, Gray & Christmas, Jahresbericht 2025. Rückkaufzahlen von S&P Dow Jones Indices. Siehe auch Wer kauft, was wir bauen? und Die Fantasie vom wohlwollenden Konzern.

[4] Anthropic Economic Research, „Labor market impacts of AI: A new measure and early evidence," 5. März 2026.

[5] Anthropic, „Anthropic Economic Index reports," 2025--2026.

[6] Dario Amodei, „Machines of Loving Grace," Oktober 2024.

[7] Anthropic, „Where We Stand," März 2026.

[8] Federal Reserve, „Distributional Financial Accounts," Q3 2025.

[9] CBS News, „Wealth inequality in America just hit its widest gap in more than 3 decades," 21. Januar 2026.

[10] Bloomberg, „The Super Rich of Silicon Valley Have a Doomsday Escape Plan," 5. September 2018.

[11] The New Yorker, Reid Hoffmans Schätzung, dass über 50 % der Tech-Milliardäre Fluchtpläne haben, 30. Januar 2017.

[12] Paritätischer Armutsbericht 2024, mit einer Armutsquote von 37,9 % für Gelsenkirchen.

[13] Bremer Institut für Arbeitsmarktforschung und Berufshilfe, Daten zur Sozialhilfe-Abhängigkeit junger Menschen.

[14] Urban Transitions Alliance, „City profile: Gelsenkirchen." Regionaler Beschäftigungsrückgang (650.000 auf 73.000) und über 30 % Bevölkerungsverlust. Letzte Zechenschließung (Ewald-Hugo, 28. April 2000) aus städtischen Aufzeichnungen.

Dieser Essay wurde auch auf SubStack veröffentlicht.