Das Pentagon stieß auf die "roten Linien" von Anthropic und entdeckte eine unbequeme Wahrheit: In der KI wird Abhängigkeit nicht mit Ultimaten verhandelt
Die Sequenz ist so schnell wie aufschlussreich. Im Juli 2025 unterzeichnete Anthropic einen Vertrag über 200 Millionen Dollar mit dem US-Verteidigungsministerium zur Einführung von Claude, das in Berichterstattungen als das erste von der Regierung zugelassene KI-Modell für geheime Netzwerke beschrieben wird. Der Vertrag beinhaltete zwei ausdrückliche Einschränkungen: keine Nutzung von Claude für massive Überwachung US-amerikanischer Staatsbürger und keine Nutzung für vollständig autonome Waffen, die in der Lage sind, Ziele ohne menschliches Eingreifen auszuwählen und anzugreifen.
Im Januar 2026 drängte ein Strategie-Memorandum des Verteidigungsministers, Pete Hegseth, auf eine Vertragsänderung: die Forderung nach der Formulierung von "jeder rechtlichen Nutzung" in den KI-Verträgen des Pentagons. Ende Februar eskalierte der Druck mit Ultimaten und Drohungen rechtlicher Mittel. Am 27. Februar, nachdem die Frist ohne Einigung abgelaufen war, veröffentlichte Präsident Donald Trump eine Anweisung, die eine “sofortige Einstellung” der Nutzung der Technologie von Anthropic in Bundesbehörden forderte, mit einer Ausstiegsfrist von sechs Monaten für diejenigen, die bereits integriert waren. Am selben Tag bezeichnete Hegseth Anthropic als "Lieferkettenrisiko für die nationale Sicherheit", und fügte eine zusätzliche Einschränkung hinzu: kein Auftragnehmer oder Partner, der mit dem Militär zusammenarbeitet, durfte Geschäftsbeziehungen mit Anthropic unterhalten.
Und dann kam die Wendung. Anfang März 2026 berichteten Medien, dass die Verhandlungen wieder aufgenommen wurden. Gleichzeitig beschrieb eine Quelle einen „Wow-Moment“: Verteidigungsführer hätten erkannt, wie unverzichtbar Anthropic war und welches operative Risiko es mit sich brachte, den Zugang zu verlieren. In einem Zitat, das Fortune zugeschrieben wird, sagt Emil Michael, ein Beamter des Pentagon, eine entscheidende Phrase: „Ich will alle. Ich will ihnen die gleichen Bedingungen geben, weil ich Redundanz benötige“.
Aus meiner Perspektive für Innovation und Verhalten des „Kunden“ — in diesem Fall dem Staat — ist das Wichtige nicht die politische Dramatik. Das Wichtige ist der Mechanismus: Wenn eine Organisation ein KI-Modell in Analysen, Planung und Operationen integriert, kauft sie kein Produkt mehr. Sie beginnt, Betriebscontinuity zu beauftragen.
Der eigentliche Konflikt war nicht "KI ja oder nein", sondern Governance des Einsatzes
Die öffentliche Diskussion kann als Prinzipienkampf gelesen werden, aber kommerziell war es ein Zusammenprall von Nutzungsrechten. Anthropic verteidigte zwei Schutzmaßnahmen als nicht verhandelbar: das Verbot der massenhaften Überwachung und das Verbot des Einsatzes in vollständig autonomen Waffen. Das Pentagon suchte, diese durch einen Deckmantel von „jeder rechtlichen Nutzung“ zu ersetzen, der laut der Einschätzung von Anthropic von einer Sprache begleitet wurde, die es erlauben würde, die Schutzmaßnahmen „nach Belieben“ zu ignorieren.
In einer typischen Unternehmensverhandlung ist "erlaubte Nutzung" ein Anhang. Hier ist es das Herzstück des Produkts. Denn bei Grenz-KI ist die Wertinterfaz nicht nur das Modell; es ist das Genehmigungssystem, die Nachverfolgbarkeit, die Prüfung und die Verantwortung, die definiert, was mit diesem Modell in Hochrisikokontexten gemacht werden kann.
Das Pentagon versuchte etwas, das viele große Organisationen tun, wenn sie das Gefühl haben, ein Anbieter sei kritisch: einen Vertrag mit klaren Grenzen in eine umfassende Lizenz umzuwandeln, die zukünftige interne Reibungen reduziert. In ihrer Logik vereinfacht „jeder rechtlichen Nutzung“ die vertragliche Governance und vermeidet, dass bei jeder Änderung der Doktrin, des Betriebs oder des geopolitischen Umfelds neu verhandelt werden muss.
Anthropic hingegen verteidigte eine andere Form des Schutzes ihres Vermögens. Nicht nur aus Ansehen, sondern auch wegen geschäftlicher und regulatorischer Exposition. Wenn ein Anbieter akzeptiert, dass sein Produkt in Szenarien eingesetzt werden kann, die über seinen Sicherheitsrahmen hinausgehen, verkauft er etwas teurer als das Modell: er verkauft unklare Verantwortung.
Der feine Punkt ist, dass beide Parteien unterschiedliche Risiken optimierten. Der Kunde wollte Elastizität und Kontrolle; der Anbieter wollte überprüfbare Grenzen. Der Zusammenstoß beweist nicht, dass eine der beiden Positionen „gut“ oder „schlecht“ ist. Er beweist, dass, wenn KI in kritische Missionen eintritt, die Klauseln aufhören, juristisch zu sein und zu Geschäftsarchitektur werden.
Die Bezeichnung "Lieferkettenrisiko" verwandelte einen vertraglichen Streit in ein Kontinuitätsproblem
Das Etikett „Lieferkettenrisiko für die nationale Sicherheit“ funktioniert wie eine Signalisierungsrakete: es muss nicht endgültig sein, um Wirkung zu erzeugen. Kurzfristig erzeugt es Unsicherheit in dem gesamten Netz von Auftragnehmern und Unterauftragnehmern, die sich keine Mehrdeutigkeit in Bezug auf die Einhaltung leisten können.
Das Briefing erwähnt, dass Mechanismen wie das Defense Production Act und die Autorität nach 10 U.S.C. § 3252 in Betracht gezogen wurden, um Anthropic von Subaufträgen nationaler Sicherheitssysteme auszuschließen. Es wird auch berichtet, dass Anthropic vorbrachte, dass selbst wenn die Bezeichnung rechtlich aufrechterhalten würde, die Nutzung von Claude in der Arbeit mit Verträgen des Verteidigungsministeriums eingeschränkt werden könnte, nicht unbedingt die allgemeine kommerzielle Arbeit.
In Geschäftsterminen ist diese Nuance weniger wichtig als die unmittelbare Wirkung: Eine Organisation, die von Claude für Analysen, Planung, Cyberoperationen und Simulationen abhängt, und eine Konstellation von Anbietern, die ihn für die Lieferung an das Pentagon nutzen, stehen vor einem Wegkonflikt. Ein in sensiblen Umgebungen eingeführtes Modell wird nicht einfach von einem Tag auf den anderen ersetzt, nicht nur aus Kostengründen, sondern auch wegen der Zeit für Migration, Neuzulassung, Anpassung der Workflows, Schulung und interner Neuzertifizierung.
Deshalb ist die Phrase des „Wow-Moments“ sowohl glaubwürdig als auch dynamisch, ohne dass Verzierungen nötig sind. Wenn der Zugang zu einem in kritische Prozesse integrierten Teil entzogen wird, entdeckt der „Kunde“, dass das, was er gekauft hat, kein Werkzeug war. Es war ein operationales Gerüst.
Im Konsum passiert dies, wenn ein Service zu einer Gewohnheit und dann zu einer Infrastruktur wird. In der Verteidigung passiert es, wenn eine Fähigkeit zum „Rückgrat“ der Analyse wird. Die Reaktion des Pentagons deutet darauf hin, dass Claude diese Schwelle erreicht hatte.
Die strategische Lehre: Der Staat lernt, KI wie kritische Infrastruktur zu kaufen
Das Zitat von Emil Michael — „ich brauche Redundanz“ — offenbart ein Muster der Reife in technologischen Käufen: Die Priorität ist nicht mehr „das beste Modell“, sondern Resilienz durch Diversifikation. Das bedeutet in der Praxis, aktive Alternativen zu halten (Anthropic, OpenAI und andere), damit keine Unterbrechung, vertragliche Streitigkeit oder Bedingungsänderung die Organisation ohne Kapazität lässt.
Dieses Prinzip ist in Energie, Telekommunikation und Logistik alt. In Grenz-KI beginnt es sich verspätet anzuwenden, da der Markt sich noch so verhält, als würde traditionelle Software gekauft. Der Fall Anthropic zeigt, dass diese Analogie nicht mehr ausreicht.
Erstens, weil die "KI" hier kein isoliertes Modul ist: Sie wird in geheimen Netzwerken eingesetzt und für sensible Funktionen verwendet. Zweitens, weil sich die Verhandlungsmacht ändert, wenn der Anbieter einer der wenigen ist, der technische und sicherheitstechnische Anforderungen erfüllen kann. Drittens, weil die Governance des Einsatzes nicht mit einem Vertragshäkchen gelöst wird: sie wird Teil des Systemdesigns.
Wenn das Pentagon darauf besteht, „jeder rechtlichen Nutzung“ für alle zu standardisieren, versucht es, die Grenz-KI in ein vertragliches Gut umzuwandeln. Der Markt ist zurzeit kein Gut. Es gibt nur wenige Anbieter, und einige haben explizite rote Linien.
Das wahrscheinliche Ergebnis ist, dass der öffentliche Einkauf sich in Richtung Schichten von Erwerbsmodellen entwickeln wird:
- Gemeinsame Basisbedingungen, um die Portabilität zu erleichtern.
- Nutzungsanhänge nach Mission oder Bereich.
- Reale Redundanz bei Anbietern, nicht nur auf dem Papier.
Nichts davon garantiert Harmonie, aber es verringert das Risiko, dass eine vertragliche Streitigkeit zu einer operationellen Krise wird.
Das wahre „Produkt“ von Anthropic für das Pentagon war operative Zuverlässigkeit, nicht nur Modellleistung
Das Briefing erinnert daran, dass Anthropic sich bereits als ungewöhnlich „verteidigungsfreundlich“ für Silicon-Valley-Standards positioniert hatte: Es war Pionier bei der Einführung von Modellen in geheimen Netzwerken, bot maßgeschneiderte Modelle für nationale Sicherheitskunden an, und Claude wurde in mehreren Funktionen innerhalb des Verteidigungsapparates verwendet. Es wird auch erwähnt, dass das Unternehmen signifikante Einnahmen abgelehnt hat, indem es den Zugang zu Unternehmen des Kommunistischen Partei Chinas einschränkte und Versuche, Claude für staatlich geförderte Cyberangriffe zu missbrauchen, eingestellt hat.
Es muss nicht episch werden, um die geschäftliche Lektion zu extrahieren: Das Pentagon kaufte nicht nur „Textgenerierungsfähigkeit“. Es beauftragte ein breiteres Paket von Signalen für Abstimmung, Reaktion und Kontrolle. In Hochrisikomärkten sind diese Signale eine Währung.
Als die Regierung dann die Anweisung gab, die Nutzung „sofort einzustellen“ und den Anbieter als Risiko zu kennzeichnen, entwertete dies die Währung auf beiden Seiten.
- Für das Pentagon, weil die öffentliche Unterbrechung dem Rest der industriellen Basis signalisiert, dass die Kontinuität möglicherweise von der Politik des Augenblicks abhängt.
- Für Anthropic, weil das Risiko-Label Zweifel bei den Auftragnehmern weckt, selbst wenn später eine Lösung verhandelt wird.
Hier tritt ein unbequemes Prinzip für große Käufer zutage: Die Kaufkraft beseitigt nicht die Abhängigkeit, wenn das Asset knapp und die Integration tief ist. Der Hebel ist nicht mehr das Volumen, sondern das Design des Portfolios und die Fähigkeit zur Migration.
Der „Wow-Moment“ signalisiert, dass der Käufer auf die Realität der Implementierung gestoßen ist. Es ist der Unterschied zwischen Drohungen aus dem Einkauf und dem Operieren aus Mission heraus.
Die Richtung, die sich aufdrängt: Verträge so gestalten, dass Kapazität ohne Konflikte gekauft wird
Dieses Ereignis hinterlässt eine Richtlinie für jede Organisation — öffentlich oder privat — die KI in essentielle Prozesse integriert.
1) Den Wunsch nach vollständiger Kontrolle vom Bedarf nach Kontinuität trennen. Absolute vertragliche Kontrolle führt oft zu maximaler Reibung mit Anbietern, die Nutzungslimits schützen. Kontinuität maximiert man durch Redundanz und realistische Ersetzungsmechanismen.
2) Die Schutzmaßnahmen als Teil des Produkts behandeln. In der Grenz-KI sind Nutzungsbeschränkungen keine Laune; sie sind ein Bestandteil von Risiko und Reputation. Für den Käufer sind sie auch eine Form interner Disziplin: sie zwingen zur Dokumentation, Begründung und Prüfung sensibler Nutzungen.
3) "Optionen" aufbauen, bevor sie benötigt werden. Redundanz wird nicht improvisiert, wenn bereits eine Abgangsanweisung in sechs Monaten existiert. Sie erfordert parallele Integration, Tests, Validierung und operative Schulung.
Die an Emil Michael zugeschriebene Aussage deutet in diese Richtung: Alle „im Spiel zu halten“, um Redundanz aufrechtzuerhalten. Es ist kein romantisches Multivendor-Prinzip; es ist der Erwerb von Handlungsfreiheit.
Das Verhalten des institutionellen „Konsumenten“ in dieser Nachricht ist transparent: Das Pentagon war darum bemüht, sofortige und zuverlässige Kapazitäten zur Analyse und Entscheidungsfindung in Hochdruckkontexten zu erwerben. Der Zusammenstoß mit Anthropic zeigt, dass, wenn KI unverzichtbar wird, die Arbeit, die der Nutzer tatsächlich kauft, nicht ein leistungsfähigeres Modell ist, sondern betriebliche Kontinuität mit klaren und nachhaltigen Nutzungslimits.












