Anthropic sagte dem Pentagon Nein und sieht sich nun den Folgen gegenüber
Am 4. März 2026 bezeichnete das US-Verteidigungsministerium Anthropic als "Risiko für die nationale Sicherheit der Lieferkette". Am nächsten Tag bestätigte Dario Amodei, dass das Unternehmen den Fall vor Gericht bringen würde. Bis zum 10. März war die Klage im Bundesgericht Nordkalifornien eingereicht, Microsoft hatte ein Unterstützungsdokument eingereicht und mehr als tausend Mitarbeiter von OpenAI und Google hatten eine gemeinsame Erklärung zum Widerstand gegen die Sanktionen unterzeichnet.
Die Geschwindigkeit der Eskalation offenbart etwas, das die Pressemitteilungen nicht sagen: Dies ist kein Streit über Vertragsklauseln. Es ist der erste offene Machtkampf zwischen dem Staat und dem privaten Sektor der KI darüber, wer die endgültige Autorität hat, zu entscheiden, was ein künstliches Intelligenzmodell tun kann, wenn der Befehl von einem Militäruniform kommt.
Der Vertrag, der das Zündlein entzündete
Im Juli 2025 unterzeichnete Anthropic einen Vertrag über 200 Millionen Dollar mit dem Verteidigungsministerium. Der Vertrag erlaubte die Nutzung von Claude in geheimen Operationen, einschließlich der Überwachung von Einwanderern für den Grenzschutz und der Jagd auf hochrangige Zielpersonen. Aber der Vertrag beinhaltete zwei ausdrückliche Einschränkungen: Claude durfte ohne menschliche Genehmigung keine tödlichen Entscheidungen autonom treffen, und er durfte keine massenhafte und indiscriminierte Überwachung von US-Bürgern durchführen.
Diese Einschränkungen waren kein Kleingedrucktes oder eine späte Zugeständnis. Sie waren der Kern des Wertangebots, das Anthropic seit seiner Gründung im Jahr 2021 verfolgt hat, als Dario Amodei und Daniela Amodei OpenAI verließen, um auf eine Entwicklung von KI zu setzen, die Sicherheit über kommerzielle Geschwindigkeit priorisierte. Das Pentagon wusste dies, als es unterschrieb. Es akzeptierte es.
Was sich änderte, war die Verwaltung. Im Januar 2026 gab Verteidigungsminister Pete Hegseth ein Memorandum heraus, das unter der Strategie „AI-First Combat Power“ gefasst war und verlangte, dass alle KI-Verträge des Verteidigungsministeriums innerhalb von 180 Tagen eine Formulierung über "jede legale Nutzung" beinhalteten. Das Memorandum kollidierte direkt mit dem, was Anthropic vereinbart hatte. Am 24. Februar traf sich Hegseth persönlich mit Amodei und warnte ihn, dass er, falls die Einschränkungen bis zum folgenden Freitag nicht zurückgezogen würden, Titel I des Verteidigungsproduktionsgesetzes in Anspruch nehmen würde, um die Einhaltung zu erzwingen oder eine Neutraining des Modells zu verlangen.
Amodei antwortete mit drei Worten, die in der Unternehmenswelt teuer werden können: "Wir können nicht erfüllen".
Was das Verteidigungsproduktionsgesetz nicht kaufen kann
Die Drohung, Titel I des Verteidigungsproduktionsgesetzes zu aktivieren, verdient eine spezifische Analyse, da sie die Fragilität des Argumentes der Regierung offenbart. Dieses Gesetz wurde entworfen, um den prioritisierten Zugang des Staates zu Produktionsressourcen in Krisenzeiten sicherzustellen: Stahl, Halbleiter, medizinische Ausrüstung. Historisch wurde es auf physische Güter mit nachvollziehbaren Produktionsketten angewandt.
Es auf die Designprinzipien eines Sprachmodells anzuwenden, ist ein rechtlicher Sprung gewaltigen Ausmaßes. Wie die Analyse von Lawfare, die in der Berichterstattung über den Fall zitiert wird, feststellt, gewährt Titel I zwar Priorität des Zugangs, würde es aber erheblich erschweren, rechtlich die Beseitigung von im Modell integrierten Sicherheitsvorkehrungen oder dessen Neutraining zu verlangen. Die Analogie zu einem Stahlwerk hält dem Gewicht nicht stand. Eine Regierung kann anordnen, dass ein Werk Stahl für Torpedos statt für Stahlträger produziert. Einem Unternehmen anzuordnen, die in ein KI-Modell kodierten ethischen Werte zu modifizieren, ist ein rechtliches Terrain ohne klare Präzedenzfälle.
Diese Unklarheit ist paradoxerweise das effektivste Instrument des Verteidigungsministeriums. Wie die eigene Analyse von Lawfare warnt: Die Drohung, ein Gesetz in Anspruch zu nehmen, dessen Auswirkungen niemand vollständig versteht, kann ausreichen, um die Kapitulation zu erlangen, ohne es einsetzen zu müssen. Die Ungewissheit erzeugt Druck. Und der Druck, in Unternehmen mit Investoren und gefährdeten Verträgen, funktioniert in der Regel besser als Dekrete.
Anthropic wählte den einzigen Weg, der diese Unklarheit beseitigt: die Gerichte.
Das Loyalitätsdiagramm und was es über die Branche offenbart
Das Bemerkenswerteste an diesem Episode ist nicht die Klage, sondern wer sich mit welcher Geschwindigkeit auf jede Seite stellte.
Microsoft reichte am selben Tag, an dem Anthropic die Klage eingereicht hat, ein Unterstützungsdokument ein und argumentierte, dass KI nicht für großflächige inländische Überwachung oder für den Beginn von Kriegen ohne menschliche Kontrolle genutzt werden sollte. Jeff Dean und über vierzig Persönlichkeiten der Branche unterzeichneten eine Erklärung, die warnte, dass die Sanktionierung eines US-KI-Unternehmens die wissenschaftliche und industrielle Wettbewerbsfähigkeit des Landes erheblich schädigen könnte. Der Information Technology Industry Council, der Nvidia, Amazon, Apple und OpenAI vertritt, warnte, dass die Sanktionen den Zugang der Regierung zu den besten Produkten und Dienstleistungen schwächen könnten.
Auf der anderen Seite akzeptierten Unternehmen wie xAI von Elon Musk die Bedingungen des Pentagons für geheime Arbeiten und festigten einen sichtbaren Riss im Sektor zwischen jenen, die berechnen, dass die ethische Haltung einen inakzeptablen Opportunitätskosten hat, und jenen, die der Ansicht sind, dass nachzugeben den Beginn eines unumkehrbaren Abhangs darstellt.
Dieser Riss ist wichtig, da er die zugrunde liegende Logik jedes Geschäftsmodells offenlegt. Ein Unternehmen, das kritisch auf Regierungsverträge angewiesen ist, um sein Wachstum zu stützen, hat wenig Spielraum, um Positionen zu halten, die den größten Kunden des Marktes verärgern. Ein Unternehmen, das sein Differenzierungsmerkmal genau auf den Einschränkungen aufgebaut hat, die die Regierung aufheben möchte, hat das umgekehrte Problem: Nachzugeben würde das Asset zerstören, das es wertvoll macht.
Anthropic verteidigt keine Prinzipien im Abstrakten. Es verteidigt den einzigen Wettbewerbsvorteil, der es von seinen Mitbewerbern in einem Markt unterscheidet, in dem technische Modelle jedes Quartal konvergieren.
Der Präzedenzfall, den niemand benennen will
Sollte das Verteidigungsministerium diesen Fall gewinnen, wird die Wirkung auf die Branche nicht unmittelbar oder dramatisch sein. Sie wird schrittweise und systemisch sein. Jedes Unternehmen, das einen Bundesvertrag für KI verhandelt, wird wissen, dass jede Nutzungseinschränkung in einem Moment politischer Spannungen als Risiko für die nationale Sicherheit erklärt werden kann. Diese Gewissheit verändert die Designanreize, bevor irgendein Vertrag unterzeichnet wird.
Der Information Technology Industry Council hat dies präzise formuliert: Sanktionen könnten den Zugang der Regierung zu den besten verfügbaren Produkten einschränken. Die Paradoxie ist, dass der Staat, indem er Druck auf die Beseitigung von Einschränkungen ausübt, möglicherweise Zugang zu gehorsameren, aber weniger leistungsfähigen Modellen erhält, die von Unternehmen entwickelt wurden, die gelernt haben, ohne Grenzen zu bauen, weil Grenzen politisch unpraktisch sind.
Das Gericht im nördlichen Bezirk Kaliforniens wird eine Frage klären müssen, die der Kongress bisher nicht beantwortet hat: ob ein privates Unternehmen vertraglich Nutzungseinschränkungen für seine Technologie festlegen kann, wenn dieser Einsatz tödliche Entscheidungen beinhaltet, oder ob die Doktrin der nationalen Sicherheit jeden privaten Vertrag auflösen kann, wenn dies als unbequem erachtet wird.
Experten für Verwaltungsrecht, die in der Berichterstattung über den Fall zitiert wurden, schlagen vor, dass die strukturelle Lösung nicht in den Gerichten, sondern im Kongress zu finden ist, der bisher keinen spezifischen legislativen Rahmen für den militärischen Einsatz von KI-Systemen geschaffen hat. Solange dieses Vakuum besteht, füllt das Pentagon den Raum mit Memoranden, und die Unternehmen antworten mit Klagen.
Was Anthropic am 10. März 2026 auf den Tisch brachte, ist nicht nur ihr Vertrag über 200 Millionen Dollar. Es ist die Frage, ob eine Organisation einen grundlegenden Zweck aufrechterhalten kann, wenn der mächtigste Kunde der Welt entscheidet, dass dieser Zweck ein Hindernis darstellt. Die Kultur jeder Organisation ist das natürliche Ergebnis der Verfolgung dieses Zwecks mit Konsequenz oder das unvermeidliche Symptom all der Male, in denen die Führung lieber den Vertrag über die Überzeugung stellte.













