Werner Glinka

KI ARBEIT KULTUR

Ist Anthropic wichtig für die US-Sicherheit?

11. Apr 2026

Am Mittwoch, dem 8. April, luden Finanzminister Scott Bessent und Fed-Chef Jerome Powell die CEOs der größten amerikanischen Banken zu einem dringenden, außerplanmäßigen Treffen im Finanzministerium in Washington ein.[1][2] Das Thema war ein einziges KI-Modell — Claude Mythos Preview, gebaut von Anthropic. Die CEOs von Citigroup, Morgan Stanley, Bank of America, Wells Fargo und Goldman Sachs erschienen. Jamie Dimon konnte nicht kommen.[1] Die Botschaft war schlicht: Diese Technologie birgt reale Risiken für das Finanzsystem. Bereitet euch vor.

Wer nicht im Raum war? Anthropic.

Nicht weil sie nichts beizutragen gehabt hätten. Anthropic hatte Regierungsvertreter bereits vor der Veröffentlichung von Mythos informiert. Sie hatten sich bereits eigenständig entschieden, das Modell nicht öffentlich zugänglich zu machen.[7] Sie hatten bereits Project Glasswing gegründet — eine Koalition aus über 50 Organisationen, darunter Amazon, Apple, Microsoft, Google, JPMorgan, CrowdStrike und Palo Alto Networks — um Mythos defensiv einzusetzen: Schwachstellen in kritischer Infrastruktur finden und beheben, bevor andere sie ausnutzen. Sie stellten 100 Millionen Dollar an Credits und 4 Millionen Dollar an direkten Spenden für Open-Source-Sicherheitsorganisationen bereit. Sie beauftragten professionelle Sicherheitsteams, jeden Schwachstellenbericht manuell zu validieren, bevor er an die Betreuer gesendet wurde.[5] Anthropic hatte sich in jeder Hinsicht als verantwortungsvolles Unternehmen mit hohen moralischen Standards gezeigt.

Warum war Anthropic also nicht im Raum?

Die wahrscheinlichste Erklärung ist die einfachste: Anthropic einzuladen hätte bedeutet, öffentlich mit einem Unternehmen zusammenzuarbeiten, das der Präsident persönlich angegriffen hatte.

Der Widerspruch

Wochen vor dem Bessent-Treffen stufte das Pentagon Anthropic als „Lieferkettenrisiko" für die nationale Sicherheit ein.[3] Der Grund? Anthropic weigerte sich, Schutzmaßnahmen zu entfernen, die verhindern, dass seine Modelle für massenhafte Inlandsüberwachung und vollautonome Waffensysteme eingesetzt werden.[4] Präsident Trump und Verteidigungsminister Pete Hegseth griffen das Unternehmen öffentlich dafür an, auf Grenzen zu bestehen. Bundesbehörden wurden angewiesen, die Nutzung von Anthropics Produkten einzustellen.[3]

Die Regierung bestrafte Anthropic dafür, zu vorsichtig zu sein. Als Anthropic dann etwas tatsächlich Gefährliches produzierte und verantwortungsvoll damit umging — die öffentliche Freigabe zurückhielt, Beamte informierte, eine defensive Koalition aufbaute —, musste die Regierung hektisch das Bankensystem vor genau der Sache warnen, vor der Anthropic sie bereits gewarnt hatte.

Die operativen Kosten

Indem sie Anthropic ausschloss, zwang sich die Regierung in die Rolle eines Boten, der Informationen aus zweiter Hand über eine Bedrohung übermittelt, die die Leute, die sie am besten verstehen, nicht persönlich erklären konnten. Die Bank-CEOs bekamen eine Warnung, aber nicht die Expertise dahinter. Das ist nicht nur politisch ungeschickt — es ist operativ schlechter. Diejenigen, die am ehesten Fragen über Mythos' Fähigkeiten, seine Grenzen und die tatsächlich wirksamen Abwehrmaßnahmen zu beantworten, fehlten in dem Gespräch, in dem diese Antworten am wichtigsten waren.

Die Choreografie

Was stattdessen entsteht, ist Theater. Anthropic leistet die eigentliche Arbeit — identifiziert Tausende von Zero-Day-Schwachstellen in jedem großen Betriebssystem und Browser, einige bis zu 27 Jahre alt, baut die Koalition auf, finanziert die Verteidigungsmaßnahmen und richtet Prozesse für verantwortungsvolle Offenlegung ein.[5][6] Und Bessent spielt den Mittelsmann, indem er die Gefahr an Bank-CEOs weitergibt, die sie aus zweiter Hand erfahren, nachdem Anthropic die Regierung bereits direkt informiert hat.

JPMorgan ist bereits Glasswing-Partner. Sie haben Zugang zu Mythos. Ihr CISO nannte es „eine einzigartige Gelegenheit in einem frühen Stadium, KI-Werkzeuge der nächsten Generation für defensive Cybersicherheit zu evaluieren."[5] Aber die anderen Banken an diesem Tisch? Sie wurden vorgeladen, um vor einer Bedrohung gewarnt zu werden, an der einer ihrer Konkurrenten bereits mit dem Unternehmen arbeitet, dem die Regierung angeblich nicht vertraut.

Was Anthropic tatsächlich getan hat

Es lohnt sich, präzise zu sein, was hier passiert ist, denn die Berichterstattung drehte sich fast ausschließlich darum, was Mythos kann — die Schwachstellen, die Exploits, die Sicherheitsimplikationen. Die wichtigere Geschichte ist, was Anthropic bewusst nicht getan hat.

Sie bauten das leistungsfähigste KI-Modell nach öffentlichen Benchmarks.[8] Sie testeten es. Sie stellten fest, dass es Schwachstellen finden und ausnutzen konnte, die Jahrzehnte menschlicher Überprüfung und Millionen automatisierter Sicherheitsscans überlebt hatten. Und statt es zu veröffentlichen — statt den Marktvorteil, die Einnahmen, die Schlagzeilen mitzunehmen — sperrten sie es weg.[7]

Sie beschränkten den Zugang auf eine kleine Gruppe von Partnern, die kritische Infrastruktur betreiben.[5] Sie tauschten sich mit Regierungsvertretern aus, bevor sie an die Öffentlichkeit gingen. Sie veröffentlichten eine 244-seitige System Card, die die Fähigkeiten und Risiken des Modells detailliert beschreibt — mit einem Grad an Transparenz, der von keinem anderen Labor erreicht wird.[6] Sie verpflichteten sich, neue Schutzmaßnahmen zu entwickeln, bevor Fähigkeiten der Mythos-Klasse allgemein verfügbar gemacht werden.

Man kann darüber streiten, ob Anthropic alles richtig macht. Aber die Haltung ist konsistent: Sie haben etwas Mächtiges gebaut, sie haben die Gefahr erkannt, und sie haben sich entschieden, bewusst damit umzugehen, wie es in die Welt kommt.

Der gefährliche Teil

Der gefährliche Teil dieser Geschichte ist nicht Mythos. Mythos hat einen verantwortungsvollen Eigentümer.

Der gefährliche Teil ist, dass die Institutionen, die diesen Moment steuern sollen, nicht entscheiden können, ob dieser Eigentümer ein Partner oder eine Bedrohung ist.

Man bedenke, was Anthropic tatsächlich getan hat. Das Unternehmen fand Tausende von Zero-Day-Schwachstellen in jedem großen Betriebssystem und Browser. Es baute die defensive Koalition auf. Es informierte die Regierung vor dem Handeln. Es hielt freiwillig ein Produkt zurück, das enorme Einnahmen generiert hätte. Das ist nationale Sicherheitsarbeit, unabhängig davon, welches Etikett das Verteidigungsministerium darauf klebt. Das Bessent-Treffen selbst ist der Beweis.

Man bestellt keine Bank-CEOs wegen einer Bedrohung ein, die von einem Unternehmen entdeckt wurde, das keine Rolle spielt.

Und dennoch stufte die Regierung genau dieses Unternehmen als Lieferkettenrisiko ein, weil es sich weigerte, Werkzeuge für Massenüberwachung und autonome Waffen zu bauen. Bundesbehörden wurden angewiesen, die Verbindungen zu kappen. Die Entscheidung wurde nicht nach sachlichen Kriterien getroffen. Sie war die Reaktion auf ein Unternehmen, das der Regierung Nein gesagt hatte.

Anthropic sagte dem Pentagon Nein. Dafür wurde es als nationale Sicherheitsbedrohung eingestuft. Anthropic teilte der Welt mit, dass sein leistungsfähigstes Modell zu gefährlich für die öffentliche Freigabe sei, und baute eine Koalition für den defensiven Einsatz. Deshalb wurde es aus dem Raum ausgeschlossen, in dem die Gefahr besprochen wurde.

Die Frage ist nicht, ob KI-Unternehmen verantwortungsvoll handeln können. Mindestens eines hat gerade demonstriert, dass es das kann. Die Frage ist, ob die Institutionen, die diese Technologie steuern sollen, kohärent handeln können.

Das ist ein schwierigeres Problem als jede Schwachstelle, die Mythos je finden wird.


Quellen

1 - Powell, Bessent discussed Anthropic's Mythos AI cyber threat with major U.S. banks (CNBC)

2 - Bessent, Powell Summon Bank CEOs to Urgent Meeting (Bloomberg)

3 - Pentagon labels Anthropic a supply chain risk (NPR)

4 - Anthropic rejects Pentagon offer (CNN)

5 - Project Glasswing: Securing critical software (Anthropic)

6 - Claude Mythos Preview system card (Anthropic)

7 - Why Anthropic won't release Mythos to the public (NBC News)

8 - Everything You Need to Know About Claude Mythos (Vellum)