Das Veto gegen den KI-Lieferanten, das die gesamte Verteidigungskette verteuert

Das Veto gegen den KI-Lieferanten, das die gesamte Verteidigungskette verteuert

Wenn ein Regulierer einen Anbieter zu einem Risiko in der Lieferkette erklärt, fällt der unmittelbare Schaden nicht nur auf das Startup zurück.

Martín SolerMartín Soler11. März 20266 Min
Teilen

Microsoft hat beschlossen, sich öffentlich in einen Streit einzumischen, der auf den ersten Blick zwischen dem Pentagon und einem Startup zu bestehen scheint. Das Unternehmen reichte ein Unterstützungsersuchen für Anthropic ein, um die Entscheidung des US-Verteidigungsministeriums vor Gericht zu stoppen, die das Unternehmen als "Lieferkettenrisiko für die nationale Sicherheit" bezeichnet und damit Verteidigungsaufträge und Militäranbietern die Zusammenarbeit mit ihm verbietet. Microsofts Argument war klar: Die sofortige Umsetzung könnte "substanzielle und weitreichende Kosten und Risiken" für Microsoft und die Regierungspartner, die auf Anthropic-Technologie in Verträgen des DoD angewiesen sind, verursachen. Diese Nachricht enthüllt, mehr als einen ideologischen Konflikt über "Schutzmaßnahmen", ein wirtschaftliches Architekturproblem: Wenn ein funktionierendes Element als Basisebene entfernt wird, entfaltet sich der Schaden in der gesamten Netzwerkstruktur.

Die verfügbaren Fakten sind eindeutig. Ende Februar 2026 bezeichnete das DoD Anthropic als ein Risiko in der Lieferkette. Diese Maßnahme wurde durch einen Streit über Schutzmaßnahmen ausgelöst: Anthropic weigerte sich, seine Modelle Claude für tödliche Anwendungen, die massenhafte Überwachung von Amerikanern oder autonome, unkontrollierte Waffen zuzulassen. Am 9. März 2026 verklagte Anthropic die Behörden und Bundesagenturen vor einem Bundesgericht in Kalifornien, um die Anordnung vorübergehend zu blockieren und die dauerhafte Umsetzung zu verhindern. Am nächsten Tag, dem 10. März, reichte Microsoft sein Unterstützungsschreiben ein. Parallel dazu gab Google bekannt, dass es weiterhin mit Anthropic an Projekten arbeiten werde, die nicht mit der Verteidigung in Verbindung stehen, und Stimmen aus der Industrie, einschließlich des CEO von OpenAI, forderten das Pentagon auf, nicht fortzufahren. In einer Anhörung in San Francisco argumentierte Anthropic, dass das Unternehmen in diesem Jahr Milliarden von Dollar an Einnahmen verlieren könnte, wenn die Einstufung aufrechterhalten wird.

Dieser Fall ist für Startups aus einem unangenehmen Grund wichtig: Es geht nicht nur um Reputation oder Produkethik. Es geht um regulatorisches Risiko, das zu einem systemischen wirtschaftlichen Risiko werden kann. In der KI, wo die technische Integration mit Kunden und Partnern tiefgreifend ist, ist die "Abberufung" eines Anbieters kein einmaliges Ereignis; es ist eine kostspielige Neuausrichtung von Verträgen, Fristen, Audits, Compliance und Verantwortlichkeiten.

Das Label "Risiko" verwandelt technische Abhängigkeiten in finanzielle Verpflichtungen

Die Entscheidung des DoD verwandelt eine Geschäftsbeziehung in eine sofortige Verbindlichkeit für Dritte. Der entscheidende Aspekt der Nachricht ist nicht der Vorhandensein eines Ausstiegsplans, sondern seine Asymmetrie. Laut dem Bericht forderte Präsident Donald Trump die Bundesbehörden auf, die Modelle von Anthropic innerhalb von sechs Monaten schrittweise zu entfernen, aber die Auftragnehmer haben diesen Übergangszeitraum nicht. Dieses Design verschiebt die Kosten vom Staat in die private Kette, die die Arbeit ausführt.

Operativ steht ein Auftragnehmer, der Claude als Bestandteil eines Systems — sei es für Analysen, Support, Übersetzungen oder Automatisierung — verwendet hat, plötzlich vor einem abrupten Schnitt. Der Ersatz ist nicht einfach einsteckbar. Das erneute Trainieren oder Anpassen von Eingabeaufforderungen, das Redesign von Integrationen, die Rezertifizierung von Compliance, das Neuaushandeln von Klauseln mit Kunden und die Gewährleistung der Servicekontinuität sind mit direkten Kosten verbunden. Es gibt auch Opportunitätskosten: Teams, die Produkte liefern, müssen nun eine Migration durchführen. Microsoft drückte dies mit der hilfreichsten Sprache aus, um den Anreiz zu verstehen: "substanzielle Kosten und Risiken". Mit anderen Worten, die Änderung verteuert nicht nur; sie führt auch zu vertraglicher Unsicherheit.

Hier zeigt sich eine typische Dynamik komplexer Beschaffungsprozesse: Wenn die technologische Schicht innerhalb von Verteidigungsprodukten "fundamental" wird, liegt der Wert nicht mehr nur im Modell, sondern im gesamten Bündel von Integrationen und Prozessen, die es umgeben. Durch die Blockierung des Anbieters dieser Schicht bestraft das DoD nicht nur das Startup. Es bestraft indirekt diejenigen, die in den Aufbau über ihm investierten. Diese Kostenübertragung endet oft an zwei Orten: Entweder wird sie vom Auftragnehmer absorbiert, wodurch die Marge reduziert wird, oder sie wird mit Preisen an den Käufer weitergegeben, oder beides.

Das empfindlichste Element ist der Präzedenzfall. Wenn eine Nutzungsbeschränkung eine sofortige Risiko-Einstufung auslösen kann, erhöhen sich die Kosten für den Abschluss von Verträgen mit KI-Startups. Nicht wegen des Preises des Modells, sondern wegen der voraussichtlichen Kosten eines erzwungenen Bruchs. Diese erwarteten Kosten fließen in Kaufentscheidungen und in die Vertragsstruktur ein. Für ein Startup bedeutet das, dass der Markt anfängt, Garantien, Redundanz oder Rabatte zu fordern, um das Risiko auszugleichen.

Microsoft und Google verteidigen mehr als nur Anthropic

Microsoft hat eine Zahl im Spiel: Das Unternehmen hat sich verpflichtet, bis zu 5 Milliarden Dollar in Anthropic im Rahmen einer erweiterten Partnerschaft zu investieren, die im November 2025 angekündigt wurde, zusammen mit Nvidia. Google hat bis Anfang 2026 etwa 3 Milliarden Dollar in Anthropic investiert und hat am 9. März bestätigt, dass es weiterhin an nicht verteidigungsbezogenen Arbeiten zusammenarbeiten wird.

Es wäre einfach, diese Haltungen als Unternehmenspolitik zu lesen. Ich sehe es als Verteidigung eines wirtschaftlichen Assets: Die Fähigkeit der großen Plattformen, ihren Kunden ein Portfolio von Modellen und Anbietern anzubieten, ohne dass jede Integration ein existenzielles Risiko darstellt. In der KI ist das "Produkt" eines Hyperscalers nicht nur Compute; es ist das Versprechen von Kontinuität und Versorgung. Wenn ein Regulierer einen relevanten Anbieter blockiert, wird dieses Versprechen teurer zu erfüllen.

Der Satz, der Microsoft in dem Bericht zugeschrieben wird, fasst die Geschäftsthese zusammen: Das DoD "benötigt zuverlässigen Zugang zur besten Technologie des Landes", und Microsoft bat um Zeit, um "gemeinsame Grundlagen" bezüglich der Schutzmaßnahmen zu finden. Hinter dieser Position steckt eine vertragliche Logik: Wenn der Staat Leistung und Sicherheit verlangt, aber Unterbrechungen ohne Übergang für Auftragnehmer schafft, steigen die Kosten für die Einhaltung in die Höhe und die Bereitschaft, neue Technologien zu übernehmen, sinkt.

Google wählte einen anderen Weg: Die Kontinuität außerhalb der Verteidigung wurde gesichert. Diese Entscheidung verringert die Volatilität der Geschäftsbeziehung zu Anthropic und schützt ihr eigenes Cloud-Angebot in nicht-militärischen Sektoren. Sie markiert auch eine Segmentierung: Das Unternehmen kann weiterhin Wert in zivilen Anwendungen erfassen, während die Verteidigungslinie rechtlich angegriffen wird.

Parallel deutet die Unterstützung von Mitarbeitern bei OpenAI und Google für ein separates Amicus-Brief sowie die Bitte des OpenAI-CEOs, das Pentagon solle nicht voran schreiten, darauf hin, dass die Branche ein übergreifendes Risiko erkennt. Es braucht keinen Romantizismus, um das zu verstehen: Wenn heute ein Anbieter blockiert wird, weil er bestimmte Nutzungsbeschränkungen aufrechterhält, könnten morgen andere Anbieter aus Angst vor Sanktionen ihre Richtlinien verschärfen oder lockern. Dieses Schwanken verbessert nicht die Sicherheit; es verteuert die Koordination.

Der Konflikt über Schutzmaßnahmen ist in der Praxis ein Streit um die Kostenverteilung

Der erklärte Ursprung des Konflikts liegt darin, dass Anthropic keine Anwendungen zulassen wollte, die mit tödlichen Anwendungen, massenhafter häuslicher Überwachung oder autonomen, unkontrollierten Waffen verbunden sind. Der CEO von Anthropic, Dario Amodei, wurde zitiert, dass KI nicht für die massenhafte häusliche Überwachung oder zur Schaffung einer Situation genutzt werden sollte, in der autonome Maschinen einen Krieg auslösen können. Das DoD wies laut dem Bericht diese Bedenken zurück und setzte die schwarze Liste fort.

Über die normativen Debatten hinaus verändert das gewählte Mechanismus das Spielfeld: Eine Einstufung als "Lieferkettenrisiko" mit sofortiger Wirkung für private Anbieter. Es ist ein Instrument, das dazu gedacht ist, Abhängigkeiten zu reduzieren, aber so angewandt schafft es eine negative Externalität: Es zwingt mehrere Unternehmen dazu, den Preis für den Wechsel des Anbieters ohne die minimal notwendige Zeit für Migration, Qualitätskontrolle und Kontinuität auf einmal zu zahlen.

In der Anhörung vor der Bundesrichterin Rita F. Lin argumentierte Anthropic mit Dringlichkeit wegen potentieller Einnahmeverluste von Milliarden in diesem Jahr. Diese Zahl, ohne detaillierte Angabe in der Quelle, ist wichtig, weil sie impliziert, dass ein erheblicher Teil ihres Geschäfts direkt oder indirekt an die nach verteidigungsbezogenen Anforderungen und die Anbieter, die dem Staat dienen, gebunden ist. Wenn die Ordnung es den Auftragnehmern untersagt, mit dem Unternehmen zu arbeiten, verliert man nicht nur einen Kunden; man verliert einen Kanal.

Hier zeigt sich die klassische Spannung in der Technologie: Der Staat will Fähigkeit und Kontrolle. Die Anbieter wollen Nutzungsgrenzen und vertragliche Sicherheit. Reagiert der Staat mit einem sofortigen Verbot, so sendet er dem Markt das Signal, dass die Einhaltung nicht verhandelt wird; sie wird durchgesetzt. Das Problem ist, dass ohne gleichwertigen Übergang für Auftragnehmer diese Durchsetzung mit der Kasse und dem operativen Risiko Dritter finanziert wird. Und wenn ein Akteur für die Entscheidungen eines anderen ohne eigene Kontrolle zahlt, ist das typische Ergebnis Rückzug: weniger Adoption, mehr Bürokratie und teurere Verträge.

Für Startups ist die Lektion hart: In hochsensiblen Sektoren sind Schutzmaßnahmen nicht nur eine Positionierung; sie sind eine Variable, die Sanktionen auslösen kann, die Verteilung und Kanäle zerstören. Auch der Staat sollte eine Lektion lernen: Wenn man bestraft, wer Grenzen setzt, und gleichzeitig schnelle Innovation verlangt, kauft man "Compliance" auf Kosten der Vielfalt der Anbieter.

Die Verteidigungskette verteuert sich, wenn die Präferenz für Verbleib unterbrochen wird

Microsoft warnte vor kostspieligen Störungen, weil seine Exposition doppelt ist: als Investor mit einem Engagement von bis zu 5 Milliarden Dollar und als Anbieter von Infrastruktur und Dienstleistungen für Kunden, die von Anthropic als Bestandteil abhängen können. Anthropic hingegen steht vor einem potenziellen Einnahmeverlust von Milliarden, und die Auftragnehmer stehen vor dem unmittelbaren operativen Problem durch das Fehlen eines Übergangs. Google schränkt den Schaden durch Kontinuität außerhalb der Verteidigung ein, aber das Signal des regulatorischen Risikos bleibt bestehen.

In meiner Erfahrung bei der Analyse von Wertschöpfungsketten wird diese Art von Maßnahmen nicht nach der "Botschaft" bewertet, sondern nach dem aggregierten wirtschaftlichen Resultat. Wenn das DoD einen Anbieter kappt und die private Kette zwingt, ohne Übergangszeit zu migrieren, erhöht sich die Gesamtkosten des Systems. Diese Kosten führen zu weniger Wettbewerb bei KI-Anbietern für die Verteidigung, zu starreren Verträgen, zu reduzierten Margen für Auftragnehmer und zu höheren Preisen für den Endkäufer. Politik kann eine Ausrichtung erzielen, aber sie kauft sie mit Reibung.

Der rechtliche Streit wird klären, ob der Befehl vorübergehend blockiert wird und wie die Implementierung erfolgt. Was bereits festgelegt ist, ist das Verteilungsmuster: Das DoD erlangt sofortige Kontrolle, während Anthropic, Microsoft und die Auftragnehmer die Rechnung für die Unterbrechung tragen. In komplexen Ketten gewinnt der, der Unsicherheit verringert und seine Partner dazu bringt, zu bleiben; der verliert, der seine Verbündeten zu Kollateralschäden einer Entscheidung ohne Übergang macht.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren