Das Memo, das OpenAI nicht schreiben wollte

Das Memo, das OpenAI nicht schreiben wollte

Als der Marktführer anfängt, seine Mitbewerber in den Kommunikationsmitteilungen an die Aktionäre zu benennen, ist die Erzählung von absoluter Dominanz bereits zerbrochen.

Ricardo MendietaRicardo Mendieta10. April 20267 Min
Teilen

Das Memo, das OpenAI nicht schreiben wollte

Am 9. April 2026 verteilte OpenAI an seine Aktionäre ein Memo, das direkt Anthropic angreift und seinen Rivalen als ein Unternehmen beschreibt, das in einem "signifikant kleineren" Maßstab operiert. Diese Formulierung ist technisch präzise: Sie beruft sich auf die Skalierungsgesetze von Sprachmodellen, das Argument, dass die Leistung mit Rechenpower und Daten zunimmt, und dass Anthropic einfach nicht über die Ressourcen verfügt, um OpenAI einzuholen. Es ist ein korrektes Argument. Und paradoxerweise ist es auch ein Alarmzeichen.

Marktführer mit gefestigten Positionen müssen ihren Aktionären normalerweise nicht erklären, warum der Zweitplatzierte unterlegen ist. Dies tun nur die Leader, die das Gefühl haben, dass der Abstand geringer wird. Dass Anthropic eine Bewertung von über 60 Milliarden Dollar erreicht hat, dass ihre Modelle Claude von Unternehmen wie Salesforce und Notion integriert werden und dass mehr als 430 Mitarbeiter von Google und OpenAI eine öffentliche Unterstützung für die roten Linien von Anthropic in Verträgen mit dem Pentagon unterzeichnet haben, sind Fakten, die sich nicht mit einem Memo klären lassen. Diese müssen strategisch angegangen werden.

Der Verzicht, den Anthropic in eine Positionierung verwandelte

Der Auslöser für diesen Zyklus von Spannungen war ein Vertrag mit dem Verteidigungsministerium der USA. Anthropic weigerte sich, einen Vertrag zu unterzeichnen, der die Nutzung seiner Technologie für "beliebige rechtmäßige Zwecke" erlaubte, und forderte stattdessen zwei spezifische Ausnahmen: dass ihre KI nicht für autonome Waffen oder für massenhafte Überwachung im Inland eingesetzt wird. OpenAI akzeptierte den Vertrag unter breiteren Bedingungen, erkannte später jedoch an, dass der ursprüngliche Vertrag "nachlässig und opportunistisch" wirkte und verhandelte zusätzliche Einschränkungen.

Dieses Momentum ist aus meiner Sicht als Stratege das aufschlussreichste in der gesamten Geschichte. Anthropic opferte einen Regierungsvertrag über 200 Millionen Dollar. Es wurde nicht aufgeschoben, nicht bis zur letzten Grenze neu verhandelt, nicht nach einer vagen Formulierung gesucht, die eine unbesorgte Unterschrift ermöglicht hätte. Sie lehnten ab. Dieser Verzicht hat sofortige und greifbare finanzielle Kosten, aber auch einen Positionierungs-Effekt, den keine Marketingkampagne kaufen kann: die Wahrnehmung von Konsistenz zwischen dem, was das Unternehmen erklärt, und dem, was es tut.

Der CEO von Anthropic, Dario Amodei, beging den taktischen Fehler, diesen Moment der Stärke als Munition für seine Kritiker zu verwenden, indem er ein internes Memo durchsickern ließ, in dem er das OpenAI-Team als "naiv" und seine Anhänger als "Twitter-Idioten" bezeichnete. Das Memo wurde, wie er später erklärte, nur wenige Stunden nach einer chaotischen Reihe von Ankündigungen verfasst. Seine öffentliche Entschuldigung war direkt: Er erkannte an, dass der Ton nicht seinen überlegten Positionen entsprach. Der reputationsschädigende Schaden war real, insbesondere unter den 430 Unterzeichnern des Briefes, die ihn einige Tage zuvor öffentlich unterstützt hatten.

Aber es gibt etwas Wichtiges, das sich mit diesem kommunikativen Ausrutscher nicht ändert: Die strategische Entscheidung im Kern blieb bestehen. Anthropic änderte ihre Position nicht. Sie unterschrieben den Vertrag nicht nach dem Druck. Diese Konsistenz zwischen Entscheidung und leitendem Prinzip bestimmt, ob ein Unternehmen eine Strategie hat oder einfach nur gute Absichten.

Was das Memo von OpenAI seinen eigenen Aktionären sagt

Kehren wir zum Memo von OpenAI zurück, denn es ist das interessanteste Dokument in dieser Geschichte. Ein Unternehmen, das normalerweise vermeidet, Wettbewerber in öffentlichen Mitteilungen zu benennen, beschloss, in einer Kommunikation, die an seine eigenen Aktionäre gerichtet war, Anthropic explizit wegen seiner Größe anzugreifen. Die scheinbare Logik ist beruhigend: "Unser Rivale ist kleiner, kann uns nicht einholen."

Die tatsächliche Logik ist umgekehrt. Die Aktionäre waren bereits besorgt. Die Existenz des Memos schafft die Besorgnis nicht, sondern reagiert darauf. Und das technische Argument, das OpenAI verwendet, dass Anthropic auf einer niedrigeren Skalierungskurve operiert, hat ein strukturelles Problem: Es ist genau das, was jeder dominante Anbieter über seine Herausforderer gesagt hat, bevor er Marktanteile verlor. IBM sagte das über Microsoft. Microsoft sagte das über Google. Das Skalierungsargument ist im Labor gültig; auf dem Unternehmensmarkt verliert es gegenüber dem Argument von Vertrauen und Angemessenheit.

Die Unternehmen, die Claude von Anthropic in ihre Plattformen integrieren, tun dies nicht, weil es kostengünstiger oder größer ist. Sie tun es, weil in Segmenten, in denen die Governance der KI-Nutzung wichtig ist, der Werdegang von Entscheidungen bei Anthropic ein Vertrauensargument aufbaut, das OpenAI noch zu artikulieren versucht. Der Wettbewerbsvorteil im Unternehmenssegment wird nicht in Petaflops gemessen; er wird in der Wahrnehmung der Angemessenheit von Anreizen zwischen Anbieter und Kunde gemessen.

OpenAI hat ein internes Kohärenzproblem, das dieses Kapitel deutlich aufzeigt. Es akzeptierte einen Vertrag, den es später als nachlässig betrachtete. Das ist kein kommunikativer Unfall; es ist ein Zeichen dafür, dass die Entscheidungsprozesse für sensible Verträge nicht mit der offiziellen Sicherheitspolitik des Unternehmens in Einklang standen. Als das OpenAI-Team selbst die Bedingungen neu verhandeln musste, um die massenhafte Überwachung ausdrücklich auszuschließen, kam es de facto den Bedingungen näher, die Anthropic von Anfang an gefordert hatte.

Eine Branche, die nicht länger so tun kann, als löse die Skalierung alles

Was dieser Streit offenbart, geht über die Spannungen zwischen zwei speziellen Unternehmen hinaus: Der Unternehmensmarkt für künstliche Intelligenz tritt in eine Reifungsphase ein, in der das Skalierungsargument nicht mehr ausreicht, um große und sensible Verträge zu gewinnen. Unternehmen mit regulatorischen Verpflichtungen, Regierungen, die ihre technologischen Beschaffungsentscheidungen gegenüber internen und externen Stakeholdern rechtfertigen müssen, und Technikteams, die sich zunehmend um Reputationsrisiken kümmern müssen, beginnen, ihre KI-Anbieter anhand von Kriterien zu bewerten, die über die Modellleistung hinausgehen.

In diesem Kontext hat die Position, die Anthropic mit dem Verzicht auf einen Vertrag über 200 Millionen Dollar und durch die PR-Krise aufgrund des Memos seines CEOs aufgebaut hat, einen strategischen Wert, den ihre Bewertung von 60 Milliarden Dollar gerade erst beginnt widerzuspiegeln. Nicht, weil Anthropic ein perfektes Unternehmen ist, sondern weil ihre Verzichtsmaßnahmen mit ihrem Wertversprechen übereinstimmen, und diese Konsistenz ist genau das, wofür die Unternehmensklienten bezahlen.

OpenAI, mit all ihrem Skalierungsvorteil, hat eine schwierige Aufgabe vor sich, die schwerer wiegt, als ihr Memo vermuten lässt: das institutionelle Vertrauen aufzubauen, das notwendig ist, um im anspruchsvollsten Marktsegment zu gewinnen. Die Skalierung verstärkt die Fähigkeiten eines Modells. Sie verstärkt nicht die Glaubwürdigkeit der Entscheidungen seiner Führungskräfte.

Die Lehre für jedes C-Level, das diesen Streit von außen beobachtet, ist direkt und ohne Umschweife: Die nachhaltigste strategische Positionierung wird nicht durch die Wahl dessen, was man anbieten möchte, gebaut, sondern durch das konsequente Festhalten an dem, was man entschieden hat, nicht zu tun, selbst wenn die Kosten dieses Verzichts im nächsten Quartalsbericht erscheinen. Unternehmen, die versuchen, für alle Kunden verfügbar zu sein, unter allen Bedingungen, mit allen möglichen Verwendungen, erobern am Ende nicht den Gesamten Markt. Sie werden irrelevant in dem Segment, das am meisten zählt.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren