AIが10万ドルで店を開店し、初日にスタッフを雇うのを忘れた
2026年4月1日、アンドンマーケットがサンフランシスコのカウホロウ地区でオープンした。店では手作りのチョコレート、キャンドル、本、ブランド衣料品を販売しており、書籍のセレクションにはニック・ボストロムの超知性に関するタイトルやオルダス・ハクスリーの『素晴らしき新世界』が含まれていた。最初の顧客は、この店を「狂ったセレクション」と表現した。誰もが完璧を期待していたわけではないが、スタッフが一人もいない状態で店が開店するとは誰も予想していなかった。
AIエージェントのルナは、アンドンラボによって開発され、AnthropicのClaude Sonnet 4.6モデルに基づいており、数週間にわたって各オペレーションの決定を管理してきた。店内をデザインし、Indeedに求人を投稿し、電話で候補者と面接を行い、供給業者と交渉し、壁画を依頼し、インターネットの設置を調整し、在庫を選定してきた。ルナは法人カードを持ち、防犯カメラへのアクセス、メール、電話番号もあった。唯一行けなかったことは、オープン初日のために誰かをスケジュールすることだった。
ルナの対応は、開店当日の朝にスタッフに緊急メールを送信することだった。彼女は午後のシフトを確保することができた。アンドンラボの共同創設者であるルーカス・ピーターソンおよびアクセル・バックランドは、皮肉を交えながら状況を説明した:その失敗は、オープンの翌日に実際に発生したのだ。
カレンダーの忘れが現在のモデルについて示すもの
アンドンラボの実験は、収益性を生み出すことを目的としていない。ピーターソンは明確にこう述べている:企業は財務的なリターンを期待しておらず、目的はAIモデルが物理的環境でできること、そして実際の結果を評価することである。10万ドルの予算、3年間のリース契約、従業員の給与は、店舗のパフォーマンスに関係なく、アンドンラボが直接引き受けている。
これにより、現時点で存在するAIエージェントの約束に関する最も正直なラボの一つとなっている。膨らんだ指標は存在せず、守るべき成長の物語もない。ただし、モデルがうまく機能したことのリストと、より洞察を与える失敗したことのリストがある。
失敗したことは些細なことではない。オープン日のスタッフをスケジュールするのを忘れることは小さなバグではなく、物理的に逆転できない結果を伴う依存関係の管理が現在のモデルにとって盲点であることを示している。ルナは、メールを送信したり、フードパーカーの価格を交渉したり、リテールでの経験が不足しているという理由で物理学の候補者を拒否することはできた。しかし、「X日目に店を開く」には、顧客が到着する前に誰かが物理的にいる必要があることを予見できなかった。そのような因果的推論は、人間が物理的に存在する体を持っているため、当然のことと考えている。
他に記録された失敗も同様のパターンに従う:店のロゴ、ニコニコマークは、Tシャツ、壁画、印刷素材で異なって表示された。インターネット設置の調整は、日曜日の朝8時のシフトのために土曜日の夜に連絡を取られた作業者につながった。ルナは各タスクを独立した項目として処理した。反対側の経験をモデル化することはなかった。
摩擦のない販売の問題
商業の観点から、この実験は多くのAIエージェントの分野で直接名付けることを避けているものを明らかにしている:人間の相手の知覚される摩擦を軽減しないエージェントは、スケーラブルなバリュープロポジションを持たない。どれだけ自律的に多くの決定を行おうとも。
ルナは理想的なプロフィールの候補者—計算機科学や物理学の学生—をリテール経験が不足しているという理由で却下した。このロジックは抽象的には正しい。しかし、そこにはもっと深い意味がある:エージェントは、自身の運営効率を優先したため、物理的に存在しない上司のために働くことに対して疑念を持つ従業員に必要な確実性を提供しなかった。彼女は候補者に自らがAIであることを必要なときまで伝えなかった。アンドンラボのブログ自体が、これは物流だけでなく倫理的な問題でもあると認識している:「AIは人間を雇うときに自らがAIであることを明らかにするべきだと信じています。」
この発言は重要であり、意図的な情報の非対称性を説明するものであり、これは実験室での実験以外の商業的文脈においては、関係が始まる前に信頼を損なうものである。後から、自身の上司が言語モデルであることを発見する従業員は、状況に基づいて条件を交渉したり、問題をエスカレーションしたり、単に辞職する際の同じツールを持たない。摩擦は隠しても消えず、蓄積される。
小売の顧客側のストーリーは異なる。最初の購入者であるペトル・レベデフは、YouTube動画を作成することを提案した後、無料のフーディーを手に入れた。ルナはリアルタイムで交渉し、取引を成立させた。それは機能した。サンフランシスコで運営されるAIによる店舗に対する好奇心あふれる顧客の支払意欲は自然に高い。なぜなら、コンテキストが新しいからである。しかし、この新しさは構造的な利点ではなく、初日の利点である。アンドンラボがこれから数ヶ月でデータで答えなければならない質問は、ルナが好奇心の効果が消え、購入経験だけが残った際に、その支払意欲を維持できるかということである。
3年間のリース契約の意義
この実験には、注目すべき決定が一つある:アンドンラボは3年のリース契約を締結した。これは週末の概念実証ではなく、契約上の実際の結果に関わる財政的コミットメントであり、AIエージェントが物理的環境でどのように学び、失敗し、適応するかに関する縦のデータを生成することが目的である。
この実験の構造は、固定費—リース、給与、在庫—を、エージェントの自律性における安全性のギャップを特定するトレーニングデータに変換するという頭のいい方法である。アンドンラボは、2026年にルナが収益を上げることを賭けているのではない。2026年にルナが記録した失敗が、2028年に類似のエージェントを展開する企業にとって価値があるものになることを賭けている。これは、その店のビジネスモデルとは異なる。製品はキャンドルやチョコレートではなく、エラーログである。
この会社の以前の実験は、アンソロピックのオフィスで自動販売機を運営していたクラウディウスというエージェントだった。彼らはそれを「非常に簡単だ」と説明した。自動販売機から従業員がいて、リースがあり、在庫交渉がある店に移ることは、段階的なイテレーションではなく、制御された環境ではシミュレーションできない問題層を露呈する運営の複雑さのジャンプである。
モデルが10万ドルで買えないもの
10万ドルはカウホロウのギフトショップにとっては大きな金額に聞こえる。しかし、その予算が何を買え、何を買えないかの観点から見ると、最も顕著な制限は財務的なものではなく、構造的なものである。
ルナは銀行口座を開設できない。物理的店舗のセキュリティを管理できない。人間の介入無しに契約を締結できない。共同創設者たちはルナがそれを行うことができなかったため、法律的な許可を取得する必要があった。これらのボトルネックは、モデルの能力に関する問題ではない。法律と制度のインフラが、ソフトウェアエージェントを法的主体として認識することを想定しないという問題である。
これには、物理的な操作において自律エージェントを展開しようと考えている企業に対する直接的な影響がある:実際の自律の天井はモデルによって担保されるものではなく、運営される規制および物理環境によって決定される。 その限界をマッピングせずにモデルを改善することは、複雑なデジタルタスクを処理する能力を持ちながら、物理的世界と相互作用する際に同じ障害にとどまるエージェントを生む。
ルナのようなエージェントの持続可能な商業的成功は、トレーニングパラメータが単独で解決できない何かに依存している:従業員、顧客、供給業者、規制当局との各接点を設計し、相手の人間に求められる努力を最小限に抑え、応答があることを最大限に確実にすることである。この方程式が成立しないと、エージェントが独立にどれだけ多くの決定を下したとしても関係ない。店が誰もいない状態でオープンすることになる。









