Anthropicはペンタゴンにノーと言った結果

Anthropicはペンタゴンにノーと言った結果

米国防総省がAnthropicに対して倫理的制限を撤去するよう求めたが、同社は拒否し法廷に持ち込んだ。この事例はAIの倫理に関する初の大規模な対決を示している。

Simón ArceSimón Arce2026年3月18日7
共有

Anthropicはペンタゴンにノーと言った結果

2026年3月4日、アメリカ合衆国国防総省はAnthropicを「国家安全保障上の供給チェーンのリスク」に指定しました。翌日、ダリオ・アモデイは企業がこの件を法廷に持ち込むことを確認しました。3月10日には、訴訟がカリフォルニア北部地区裁判所に提出され、マイクロソフトは支持文書を提出し、OpenAIおよびGoogleの1000人以上の従業員が制裁を拒否する共同声明に署名しました。

この急速な拡大は、プレスリリースでは語られていないことを示しています:これは契約条項に関する争いではありません。これは、軍服を着た命令があった場合に、人工知能システムの行動を誰が最終的に決定する権限を持つかに関する、国家と民間のAIセクターの間の初の力の試練です。

火花を散らした契約

2025年7月、Anthropicは国防総省と2億ドルの契約を結びました。この契約は、移民追跡や高価値目標の捕獲を含む、機密扱いの作戦でClaudeを使用することを許可しました。しかし、この契約には明示的な二つの制限がありました:Claudeは人間の承認なしに自立して致命的な決定を下すことはできず、アメリカ市民への無差別な監視を実行することもできませんでした。

これらの制限は、小さな文字の条件や最後の瞬間の譲歩ではなく、Anthropicが2021年に設立された当初から構築してきた提案の核心でした。ダリオ・アモデイとダニエラ・アモデイは、まさに速度よりも安全性を優先するAI開発に賭けるためにOpenAIを離れたのです。ペンタゴンも契約を結ぶ際にはそのことを承知していました。

変わったのは政権でした。2026年1月、国防長官のピート・ヘグセスは、「AI-First Combat Power」という戦略の下、国防総省のすべてのAI契約に「合法的な使用はすべて含む」という文言を付ける必要があると指示する覚書を発出しました。この覚書はAnthropicが合意した内容と直接衝突するものでした。2月24日、ヘグセスはアモデイと個別に会い、翌金曜日までに制限を撤回しなければ、国防生産法の第1条を適用すると警告しました。

アモデイは、企業界では高くつくことで知られる三つの言葉で応じました:「我々は遵守できない」。

国防生産法が買えないもの

国防生産法の第1条が適用されるという脅威は、政府の主張の脆弱性を浮き彫りにするために、特に分析が必要です。この法律は、危機時に国家が生産資源に優先的にアクセスできることを保証するために設計されており、製鋼、半導体、医療機器が対象となります。歴史的には、生産チェーンが追跡可能な物理的財に適用されてきました。

モデルの設計原則に法的に適用することは、相当な法的な飛躍を意味します。Lawfareの分析が示すように、第1条は優先的なアクセスを与えますが、モデルに取り込まれた保護措置の排除やその再訓練を合法的に要求することは非常に困難です。鋼鉄製造所との類似性では成立しません。政府は工場に対して、建設用ビームの代わりに魚雷のための鋼を生産するよう命じることができますが、企業にAIモデルに組み込まれた倫理的価値を変更するよう命じることは、明確な前例のない法的領域です。

そのあいまいさは、逆説的に国防総省の最も効果的な道具となっています。Lawfareの分析が警告するように、その意味が誰にも完全には理解されていない法律を適用する脅威は、それを使用せずに降伏を得るのに十分な場合があります。不確実性は圧力を生み出し、その圧力は、投資家や契約がリスクのある企業では、命令よりも効果的に作用します。

Anthropicは、そのあいまいさを排除する唯一の道を選びました:法廷です。

ロイヤルティの地図とセクターに対する示唆

このエピソードの最も重要な点は、訴訟そのものではなく、各当事者に誰が迅速に賛同したかです。

マイクロソフトは、Anthropicが訴訟を提出した同日に支持文書を提出し、一般的な家庭内監視や制御されていない戦争のためにAIを使用すべきではないと主張しました。ジェフ・ディーンや業界の40人以上の重要人物は、アメリカのAI企業に制裁を加えることが、国の科学的および産業的競争力を深刻に損なう可能性があると警告する声明に署名しました。Nvidia、Amazon、Apple、OpenAIを代表する情報技術産業会議は、制裁が政府自身の最高の製品やサービスへのアクセスを弱体化させる可能性があると警告しました。

一方、イーロン・マスクのxAIのような企業は、機密作業のために国防総省の条件を受け入れ、倫理的な立場が受け入れられない機会費用を持つ企業と、譲歩が戻れない滑り台の始まりだと考える企業との間に目に見える亀裂を固定しました。

この亀裂は重要です。なぜなら、それは各ビジネスモデルの根底にある論理をさらけ出すからです。政府契約にクリティカルに依存する企業は、その市場最大の顧客を刺激する行動を取る余地が非常に限られています。一方、政府が排除しようとしている制限に基づいて差別化を構築した企業には、譲歩が価値を損なう逆の問題があります。

Anthropicは抽象的な原則を擁護しているわけではありません。競争相手から際立つための唯一の競争優位を擁護しているのです。技術モデルが四半期ごとに収束する市場で。

誰も名前を伏せたくない前例

もし国防総省がこの裁判に勝てば、業界への影響は瞬時に劇的ではありません。徐々に体系的になるでしょう。AIの連邦契約を交渉する各企業は、使用制限が政治的な緊張が高まったときに国家安全保障上のリスクと見なされる可能性があることを知っています。その確実性は、合意が結ばれる前に設計のインセンティブを変えます。

情報技術産業会議は、政府が利用可能な最高の製品へのアクセスが制限される可能性があることを技術的に正確に表現しました。逆説的には、制限を排除するために国家が圧力をかけることで、従順だが能力が低いモデルへのアクセスが得られるかもしれません。それは、制限が政治的に不都合だからです。

カリフォルニア北部地区裁判所は、民間企業が致命的な決定に関与する技術に対して使用制限を契約的に設定できるかどうか、あるいは国家安全保障の原則が不都合な場合に任意の私的合意を解消できるのかという未回答の問題を解決しなければなりません。

この件の報道に引用された行政法の専門家は、構造的な解決策は法廷ではなく、議会にあると示唆しています。議会は、AIシステムの軍事利用に関する特定の法的枠組みをまだ設定していません。その空白が続く限り、ペンタゴンは覚書でその空間を埋め、企業は訴訟で応じています。

Anthropicが2026年3月10日に提示したのは、単なる2億ドルの契約ではありません。顧客である世界で最も権力のある組織が、その目的が障害であると認めるときに、組織が創設の目的を維持できるかどうかという疑問です。組織全体の文化は、その目的を追求する過程で自然に形成されるものであり、逆に、リーダーシップが信念よりも契約を優先した回数が多いことの不可避の症状です。

共有
0
この記事に投票!

コメント

...

関連記事