OpenAI und das Pentagon: Das Geschäft liegt nicht im Modell, sondern im Einsatz
Am 28. Februar 2026 kündigte Sam Altman an, dass OpenAI einen Vertrag mit dem US-Verteidigungsministerium abgeschlossen hat, um seine Modelle in einem geheimen Netzwerk einzusetzen. Zeitgleich brachen die Verhandlungen mit Anthropic an diesem Tag ab, und die Trump-Administration ordnete an, dass die Bundesbehörden ihre Technologie nach einer Übergangszeit von sechs Monaten nicht mehr verwenden sollten; der Verteidigungsminister Pete Hegseth bezeichnete Anthropic als "Risiko für die Lieferkette". Am folgenden Tag veröffentlichte OpenAI einen Beitrag, in dem es seinen Ansatz beschrieb und verteidigte, dass der Vertrag ausdrückliche Grenzen gegen drei Anwendungen umfasst: Inlands-Massenüberwachung, autonome Waffen und automatisierte Entscheidungen mit großer Auswirkung.
Die oberflächliche Lesart ist politisch: Ein Unternehmen nähert sich der Macht, ein anderes entfernt sich. Die nützliche Lesart für einen CEO, CFO oder Produktmanager ist kühler: Dies ist ein Streit um Einsatzkontrolle und, im weiteren Sinne, darum, wer den Wert erfasst und wer das Risiko in der für wichtig erachteten Phase, die nach der Demo erfolgt, trägt.
Die Kontroverse über die Überwachung ist kein kommunikativer Anhang. Sie ist der Stresstest für etwas Größeres: Der KI-Markt hört auf, ein Wettbewerb um Benchmarks zu sein und beginnt, ein Wettlauf um Architektur, Compliance und Betrieb in widrigen Umgebungen zu werden.
Ein Vertrag "mit Leitplanken" ist nur so viel wert wie seine Umsetzung
OpenAI behauptet, dass der Vertrag "mehr Leitplanken als jeder vorherige Vertrag" für geheime Einsätze enthält und dass die Verwendung für Inlands-Massenüberwachung ausgeschlossen ist. Das Unternehmen behauptet außerdem, dass der Vertrag sich auf geltende rechtliche Standards und Richtlinien bezieht, mit dem Ziel, dass die Nutzung auch dann im Einklang mit diesen Standards bleibt, wenn sie sich in Zukunft ändern. In seiner Erzählung hängt der Rahmen nicht von einem Satz in einem Dokument ab: Er stützt sich auf geltendes Recht, vertragliche Schutzmaßnahmen und ein Design für den Einsatz.
Das praktische Problem ist, dass das Wort "Leitplanke" schnell an Wert verliert, wenn es von einem Unternehmensbeitrag in eine Reihe von realen Entscheidungen übergeht: Welche Daten werden verbunden, mit welchen Erlaubnissen, welche Nachverfolgbarkeit wird gefordert, welche Aufzeichnungen werden geführt, wer prüft, was als "inländisch" in einer Welt der grenzüberschreitenden Kommunikation und Datensammlung gilt. In der öffentlichen Diskussion kritisierte Techdirt, dass der Text bestimmte Erfassungsschemata unter Rahmenbedingungen wie der Executive Order 12333 erlauben würde, was es als eine Möglichkeit beschreibt, Kommunikationsdaten außerhalb der USA zu erfassen, auch wenn sie Daten von US-Bürgern betreffen.
Aus meiner geschäftlichen Perspektive hat diese Kontroverse eine operationale Implikation: Die Nutzungsgrenzen hängen nicht von der Absicht ab, sie hängen von Mechanismen ab, die einen Anreizwechsel überstehen. In einer geheimen Umgebung ist der dominante Anreiz Mission, Geschwindigkeit und Verringerung von Reibung. Wenn die Kontrollen nicht verifizierbar sind, keine verwendbaren Beweise erzeugen und keine unmittelbaren technischen Konsequenzen haben, enden sie als Literatur.
Deshalb ist das "Wie" wichtiger als das "Was": OpenAI betont den Einsatz in der Cloud über APIs, autorisiertes Personal "im Prozess" und "vollständige Diskretion" über seinen Sicherheitsstapel. Diese Elemente deuten auf ein kontinuierliches Kontrollmodell hin. Sie werfen aber auch eine andere strategische Frage auf, ohne moralische Überheblichkeit: Wer hat den operativen Hebel wenn der Druck auf Ergebnisse steigt?
Die Architektur ist das Produkt: Cloud, API und Oberflächenkontrolle
Katrina Mulligan, verantwortlich für nationale Sicherheitsallianzen bei OpenAI, verteidigte, dass "die Einsatzarchitektur wichtiger ist als die vertragliche Sprache". Konkret argumentierte sie, dass die Beschränkung der Implementierung auf eine Cloud-API die Möglichkeit verringert, das Modell direkt in Waffen, Sensoren oder andere Betriebsgeräte zu integrieren.
Dieser Satz ist der strategische Kern des Vertrags. In der KI wird das Modell commodifiziert; der Einsatz wird zum Graben. Wenn die Inferenz in der Cloud des Anbieters erfolgt, behält der Anbieter drei kritische Vermögenswerte:
1) Kontrolle über Aktualisierungen: Das Labor entscheidet, wann und wie sich das Verhalten des Systems ändert.
2) Beobachtbarkeit: Fähigkeit zur Instrumentierung von Protokollen, Warnungen, Missbrauchserkennung und Nachverfolgbarkeit von Prompts und Outputs unter bestimmten Richtlinien.
3) Unterbrechungsfähigkeit: Ein realistisch umsetzbares "Ausschalten" bei Vorfällen, sei es aufgrund von Fehlverhalten, Missbrauch oder Fehlanpassungen.
In einer militärischen Umgebung hat der Einsatz vor Ort zusätzlich offensichtliche Vorteile: Latenz, Widerstandsfähigkeit gegen Trennung, lokale Autonomie. Wenn der Vertrag auf Cloud drängt, gewinnt die Regierung funktionale Kapazität, gibt aber einen Teil der operativen Kontrolle ab. Und das ist ein bewusster Austausch, kein technisches Detail.
Hier entsteht die Spannung, die von den Medien kaum behandelt wird: Der Käufer will operative Souveränität, der Verkäufer will Risiko-Governance. Die Cloud ist das Mittel, das es ermöglicht, zu verkaufen, ohne "den Motor" vollständig herauszugeben. OpenAI scheint durch das Bestehen auf einer Cloud-only-Lösung gleichzeitig zwei Dinge zu kaufen: Einnahmen und eine defensive Position gegenüber unerwünschten Anwendungen.
Für jedes Unternehmen, das kritische Technologien an Regierungen oder regulierte Industrien verkauft, ist die Lektion klar: Der Vertrag ist der Rahmen; die Architektur ist die Durchsetzung. Was das Risikoprofil und die Compliance-Kosten definiert, ist nicht das PDF, sondern das Diagramm.
Der versteckte Anreiz: echte Einnahmen, Abhängigkeit und Supportkosten
Wir haben keine Zahlen für den Vertrag in den verfügbaren Informationen, daher kann keine quantitative Prüfung erfolgen. Aber der wirtschaftliche Vektor ist ableitbar: Ein Einsatz in geheimen Umgebungen ist selten "Self-Service". Er erfordert Integration, Absicherung, Kontrollen, autorisiertes Personal, Prozesse, Dokumentation, Support und vor allem Reaktionsfähigkeit. OpenAI behauptet, dass "autorisiertes Personal im Prozess" beteiligt sein wird, einschließlich eingestellter Ingenieure und Sicherheits- sowie Abstimmungsmitarbeiter.
Das hat direkte Kosten. In traditionellen Software-Geschäften wird die Marge dadurch geschützt, dass man Dienste standardisiert und reduziert. In geheimen Einsätzen wird die Marge auf andere Weise geschützt: Durch die Umwandlung von spezialisiertem Support in einen strukturellen Bestandteil des Angebots und durch die Erhöhung des Preises aufgrund der Kritikalität.
Die Konsequenz ist, dass sich OpenAI einem Modell annähert, bei dem der "Pentagon"-Account nicht wie ein typischer SaaS-Kunde aussieht, sondern wie ein Kunde für kritische Infrastruktur. Dies führt zu drei Dynamiken:
- Gegenseitige Abhängigkeit: Die Regierung ist auf den Anbieter angewiesen, um operieren zu können; der Anbieter ist auf die Regierung angewiesen, um einen stabilen Einkommensfluss zu sichern.
- Hohe variable Kosten: Autorisiertes Personal, fortlaufende Compliance und Vorfallmanagement. Das drängt die Organisation dazu, eine robuste Ausführungseinheit aufzubauen, nicht nur ein Labor.
- Produkt-Risiko durch Kontext: Jede Ausnahme, jede Integration und jeder Extremfall zwingt dazu, zusätzliche Kontrollschichten zu schaffen, die auch die Reibung und Komplexität des kommerziellen Produkts erhöhen können.
Die wettbewerbsfähige Erkenntnis, die wir jedoch haben, verdeutlicht die Marktanpassungsfähigkeit: Am 1. März 2026 überholte Claude ChatGPT im App Store-Ranking. Dies beweist nicht zwangsläufig Kausalität, zeigt aber, dass die Positionierung auf "roten Linien" kurzfristig die Benutzerpräferenz beeinflussen kann. Strategisch scheint OpenAI eine mögliche Rufschädigung im Verbrauch zu akzeptieren, um einen höheren Einkommensstrom im Institutionellen zu stärken und seine Rolle als Referenzanbieter für hochrestriktive Einsätze zu konsolidieren.
Der wahre Marktbruch: Wer trägt das Risiko der Nutzung?
Der Konflikt zwischen OpenAI und Anthropic wird als Unterschied in den Werten interpretiert. Für einen Operator ist es nützlicher, ihn als Unterschied in der Risikostruktur zu sehen. Anthropic weigerte sich, einen ähnlichen Vertrag zu unterzeichnen, und wurde heftig institutionell bestraft: Einstufung als Risiko für die Lieferkette und eine schrittweise Rückzugsanordnung von Bundesbehörden. Dies sendet ein Signal, das jeder Gründer versteht: In bestimmten Märkten hat es unmittelbare Kosten, nicht teilzunehmen.
OpenAI versucht seinerseits, eine Teilnahme mit Grenzen zu entwerfen: Es verbietet bestimmte Nutzungen im Vertrag, betont Cloud-only und behauptet, die Diskretion über seinen Sicherheitsstack zu behalten. Es wird sogar vorgeschlagen, dass sie versucht haben, den Konflikt zwischen der Regierung und den Laboren "zu entschärfen" und dass dieselben Bedingungen auch anderen angeboten werden sollten.
Die C-Level-Lesart ist, dass die Regierung die Industrie in eine Position drängt, in der fortschrittliche KI als strategische Infrastruktur betrachtet wird. In dieser Kategorie hören die Labore auf, nur Anbieter zu sein, und werden zu operativen Akteuren innerhalb des perimeter der nationalen Sicherheit. Das ändert den Typ von Unternehmen, das man sein muss:
- Es reicht nicht mehr aus, Modell und UX zu iterieren; man benötigt Betrieb, Sicherheit, Prozesse und eine Entscheidungsfindungskette, die einem Druck standhält.
- Das Haupt Risiko besteht nicht nur darin, dass das Modell fehlschlägt, sondern dass die Nutzung durch die Integration mit Systemen und Daten, die das Labor nicht kontrolliert, aus dem Ruder läuft.
- Der Haupt Wettbewerbsvorteil ist nicht nur die Qualität der Antwort, sondern die Fähigkeit zur Kontrolle in der Produktion und der Nachweis der Einhaltung.
Wenn die öffentliche Debatte sich um den Begriff "Massenüberwachung" konzentriert, geht eine wichtige operative Variable verloren: Der Vertrag ist ein Mechanismus zur Verteilung von Verantwortung. Wenn das Labor die Kontrolle über den Einsatz und die Sicherheit behält, behält es auch einen Teil des reputativen und operationellen Risikos. Wenn der Käufer einen Einsatz vor Ort und totale Kontrolle verlangt, verringert das Labor seine Kontrolle, könnte aber auch versuchen, die Verantwortung zu reduzieren. Der wahre Konflikt besteht in dieser Aufteilung.
Die Marktentwicklung: Weniger Demos, mehr industrielle Governance
Die Ankündigung von Altman beinhaltete ein relevantes Eingeständnis: Es war "definitiv hastig" und "das Bild ist nicht gut zu sehen". Das deutet auf zeitlichen Druck und ein konkretes politisches Fenster hin. In der Industrie ist Eile der Feind von zwei Dingen: Klarheit im Vertrag und Design von messbaren Kontrollen.
Dennoch ist der Trend schwer umzukehren: Die größten und regulierten Käufer werden verlangen, dass die KI unter realen Bedingungen mit echten Einschränkungen funktioniert. Der Wettbewerbsstandard wird sich in Richtung:
- Architekturen bewegen, die die Integration mit betrieblichem Hardware beschränken, wenn das Risiko es erfordert.
- Autorisiertes Personal und Änderungsprozesse, die Sicherheit in die Ausführung umwandeln, nicht in Dokumente.
- Nachverfolgbarkeit, die es ermöglicht, nicht nur zu erklären, sondern zu beweisen, dass Nutzungsgrenzen eingehalten werden.
- Klauseln, die Standards einfrieren oder definieren, wie sie bei rechtlichen Änderungen umgedeutet werden.
Wenn es OpenAI gelingt, diese Art von Vertrag zu betreiben, ohne ihr allgemeines Produkt zu degradieren und ohne interne Bürokratie zu vermehren, hat sie einen Graben geschaffen, der sich mit einem "leicht besseren" Modell nicht replizieren lässt. Wenn ihr dies nicht gelingt, wird das organisatorische Kosten verursachen: mehr Schichten, mehr Ausnahmen, mehr Reibung und ein Produkt, das sich im Tempo des anspruchsvollsten Kunden weiterentwickelt.
Die Strategie wird nicht in X oder in einem Unternehmensbeitrag entschieden. Sie wird in der Einsatztechnik, in den Sicherheitsverfahren und in den tatsächlichen Kosten für die Aufrechterhaltung von überprüfbaren Leitplanken in der Produktion entschieden.













