OpenAI والبنتاغون: التجارة ليست في النموذج، بل في النشر
في 28 فبراير 2026، أعلن سام التمان أن OpenAI أبرمت اتفاقًا مع وزارت الدفاع الأمريكية لنشر نماذجها في شبكة مصنفة. في الوقت نفسه، تفككت المفاوضات بين Anthropic والحكومة في نفس اليوم، وأمرت إدارة ترامب الوكالات الفيدرالية بالتوقف عن استخدام تكنولوجيا هذه الشركة بعد فترة انتقالية لمدة ستة أشهر. وقد وصف وزير الدفاع، بيت هيغسث، شركة Anthropic بأنها "خطر على سلسلة الإمداد". في اليوم التالي، نشرت OpenAI منشورًا يوضح نهجها ويدافع عن أن العقد يتضمن حواجز صريحة ضد ثلاثة استخدامات: المراقبة الجماعية المحلية، الأسلحة المستقلة، والقرارات الآلية ذات التأثير العالي.
القراءة السطحية هي سياسية: إحدى الشركات تقترب من السلطة وأخرى تبتعد. القراءة المفيدة لرؤساء الشركات أو المديرين الماليين أو مشغلي المنتجات هي أكثر برودة: هذه خلاف على السيطرة على النشر، ومن ثم، من الذي يحقق القيمة ومن الذي يتحمل المخاطر في المرحلة التي تهم، التي تحدث بعد العرض التجريبي.
عقد “مع حواجز” لا قيمة له إن لم يُنفذ
تدعي OpenAI أن الاتفاق يتضمن "حواجز أكثر من أي اتفاق سابق" للنشر المصنف وأن استخدامه للمراقبة الجماعية المحلية خارج الحدود المسموح بها. كما تدعي الشركة أن العقد يشير إلى معايير قانونية وسياسات "كما هي موجودة اليوم"، بهدف أن يبقى الاستخدام متماشيًا مع تلك المعايير حتى لو تغيرت في المستقبل. في سردها، الإطار لا يعتمد على جملة في وثيقة: بل يعتمد على القانون المعمول به، والحماية التعاقدية، وتصميم النشر.
المشكلة العملية هي أن كلمة “حاجز” تتآكل بسرعة عندما تنتقل من منشور للجهة إلى سلسلة من القرارات الفعلية: ما هي البيانات التي تتصل، وما الأذونات المطلوبة، وما هو تتبع البيانات المطلوب، وما هي السجلات المحتفظ بها، ومن يقوم بالتدقيق، وما الذي يعتبر "محلي" في عالم الاتصالات وجمع البيانات عبر الحدود. في النقاش العام، انتقدت Techdirt النص الذي سيسمح ببعض أنظمة الجمع بموجب أطر مثل الأمر التنفيذي 12333، معتبرة إياه وسيلة لالتقاط الاتصالات خارج الولايات المتحدة رغم أنها تتعلق ببيانات للأمريكيين.
من وجهة نظر العمل، تحمل هذه الجدل دلالة تشغيلية: حدود الاستخدام لا تعتمد على النية، بل تعتمد على آليات تصمد أمام تغيير الحوافز. في بيئة مصنفة، الحافز السائد هو المهمة، السرعة، وتقليل الاحتكاك. إذا لم تكن الضوابط قابلة للتحقق، إذا لم تكن تنتج أدلة قابلة للاستخدام، وإذا لم يكن لها عواقب فنية فورية، فإنها تصبح أدبًا.
لذلك الأهمية أكبر كيف يتم التنفيذ
تعمل OpenAI على التأكيد على النشر عبر السحاب عن طريق واجهة برمجة التطبيقات، وتكون الأطراف المصرح لها "في السياق" وتتمتع "بسلطة كاملة" على مجموعة الأمان الخاصة بها. تشير هذه العناصر إلى نموذج من التحكم المستمر. لكن أيضًا تثير سؤالاً تنفيذيًا مختلفًا، بدون موعظة: من يمتلك ذراع التشغيل عندما تزداد الضغوط لتحقيق النتائج.
الهندسة هي المنتج: سحاب، واجهة برمجة التطبيقات، والتحكم في السطح
دافعت كاترينا مالجان، المسؤولة عن الشراكات في الأمن القومي في OpenAI، عن أن “هندسة النشر أكثر أهمية من اللغة التعاقدية”. بالتحديد، جادلت بأن تقييد التنفيذ إلى واجهة برمجة التطبيقات السحابية يقلل من إمكانية دمج النموذج مباشرة في الأسلحة، أجهزة الاستشعار، أو المعدات التشغيلية الأخرى.
تعد هذه العبارة نواة الاتفاق الاستراتيجية. في الذكاء الاصطناعي، يتم commoditizing النموذج؛ يصبح النشر هو الخندق. إذا حدث الاستدلال في سحاب المورد، يحتفظ المورد بثلاثة أصول حيوية:
1) التحكم في التحديثات: يقرر المختبر متى وكيف يغير سلوك النظام.
2) القابلية للرؤية: قدرة على أدوات السجلات، التنبيهات، اكتشاف الإساءة، وتتبع الموجهات والمخرجات بموجب سياسات معينة.
3) قدرة على الإنهاء: "إيقاف" واقعي في حالات الحوادث، سواء بسبب التدهور، الإساءة أو عدم التوافق.
في بيئة عسكرية، بالإضافة إلى ذلك، يتمتع النشر على الحافة بجاذبية واضحة: زمن الاستجابة، المقاومة للفصل، والاستقلالية المحلية. إذا كان العقد يدفع نحو سحاب، يكسب الحكومة قدرة وظيفية لكنها تتنازل عن جزء من السيطرة التشغيلية. وهذا تبادل مقصود، لا مجرد تفصيل تقني.
هنا تظهر التوترات التي تغطيها وسائل الإعلام قليلاً: يريد المشتري السيادة التشغيلية، ويريد البائع حوكمة المخاطر. السحاب هو النقطة الوسطى التي تتيح البيع دون "تسليم المحرك" بالكامل. يبدو أن OpenAI، بالإصرار على "السحاب فقط"، تحاول شراء شيئين في وقت واحد: الدخل وموقف دفاعي ضد الاستخدامات غير المرغوب فيها.
لكل شركة تبيع تقنية حيوية للحكومات أو الصناعات المنظمة، فإن الدرس واضح: العقد هو الإطار؛ والهندسة هي التنفيذ. ما يحدد ملف المخاطر وتكاليف الالتزام ليس ملف PDF، بل هو المخطط.
الحافز المخفي: الدخل الحقيقي، الاعتماد، وتكاليف الدعم
ليس لدينا أرقام عن العقد في المعلومات المتاحة، لذلك لا يمكن إجراء تدقيق كمي. لكن الاتجاهات الاقتصادية يمكن استنتاجها: التوزيع في بيئات مصنفة نادرًا ما يكون "خدمة ذاتية". يتطلب التكامل، والتحصين، والضوابط، والموارد الموظفة، والعمليات، والوثائق، والدعم، والأهم من ذلك الاستجابة. تدعي OpenAI أن "الأشخاص المصرح لهم سيكونون في السياق"، بما في ذلك المهندسين الموزعين وموظفي الأمان والتوافق.
هذا له تكلفة مباشرة. في أعمال البرمجيات التقليدية، يتم حماية الهامش عن طريق توحيد العمليات وتقليل الخدمات. في الأحداث المصنفة، يتم حماية الهامش بطريقة أخرى: عن طريق تحويل الدعم المتخصص إلى جزء هيكلي من العرض وزيادة السعر بسبب الأهمية.
النتيجة هي أن OpenAI تقترب من نموذج حيث حساب "البنتاغون" لا يشبه عميل SaaS نموذجي، بل يشبه عميل البنية التحتية الحيوية. هذا يقدم ثلاث ديناميكيات:
- الاعتماد المتبادل: يعتمد الحكومة على المورد للتشغيل؛ يعتمد المورد على الحكومة لتأمين تدفق دخل مستدام.
- التكاليف المتغيرة العالية: الموظف المخول، الالتزام المستمر، وإدارة الحوادث. وهذا يتطلب من المؤسسة بناء وحدة تنفيذ قوية، وليس فقط مختبر.
- مخاطر المنتج وفقًا للسياق: كل استثناء، كل تكامل، وكل حالة استثنائية تضغط لإنشاء طبقات إضافية من التحكم، مما قد يزيد الاحتكاك والتعقيد أيضًا للمنتج التجاري.
توضح البيانات التنافسية المتاحة الحساسية في السوق: في 1 مارس 2026، تفوقت Claude على ChatGPT في تصنيف متجر التطبيقات. لا يثبت ذلك سببية بمفرده، لكنه يظهر أن الوضع على "الخطوط الحمراء" يمكن أن يؤثر على تفضيل المستخدم على المدى القصير. من حيث الاستراتيجية، يبدو أن OpenAI تقبل تآكل سمعتها في الاستهلاك مقابل تعزيز جزء من الدخل المؤسسي وتوطيد دورها كمورد رئيسي للتوزيعات عالية القيود.
الانقسام الحقيقي في السوق: من يتحمل مخاطر الاستخدام
يشير صراع OpenAI–Anthropic إلى اختلاف القيم. بالنسبة لمشغل، من المفيد أكثر رؤيتها كـ اختلاف في هيكل المخاطر. رفضت Anthropic توقيع اتفاق مشابه وتعرضت لانتقام مؤسسي قوي: تعيينها كخطر على سلسلة الإمداد وأمر بالسحب التدريجي من قبل الوكالات الفيدرالية. وهذا يرسل إشارة يفهمها أي مؤسس: في بعض الأسواق، عدم المشاركة يكلف.
تحاول OpenAI، من جانبها، تصميم مشاركة مع حدود: تحظر بعض الاستخدامات في العقد، وتؤكد على "السحاب فقط" وتدعي الاحتفاظ بالسلطة على مجموعة الأمان الخاصة بها. كما تقترح أنها سعت إلى "خفض" الصراع بين الحكومة والمختبرات وطلبت أن تُقدم نفس الشروط للآخرين.
تقرأ الشركات الكبرى أن الحكومة تدفع الصناعة نحو موقع يُعتبر فيه الذكاء الاصطناعي المتقدم بنية تحتية استراتيجية. في تلك الفئة، تتوقف المختبرات عن كونها مجرد موردين لتصبح فاعلين تشغيليين داخل محيط الأمن القومي. وهذا يغير نوع الشركة التي تحتاج أن تكون:
- لم يعد يكفي تكرار النموذج وتجربة المستخدم؛ تحتاج إلى العمليات، والأمان، والعمليات وسلسلة قرارات تتحمل الضغوط.
- الخطر الرئيسي ليس فقط أن النموذج يفشل، ولكن أن الاستخدام يتجاوز التكامل مع الأنظمة والبيانات التي لا يتحكم فيها المختبر.
- الميزة التنافسية الرئيسية ليست فقط جودة الاستجابة، بل قدرة التحكم في الإنتاج والأدلة على الالتزام.
عندما يركز النقاش العام على عبارة "المراقبة الجماعية"، تفقد توجيه تنفيذي: العقد هو آلية توزيع المسؤوليات. إذا احتفظ المختبر بالتحكم في النشر ومجموعة الأمان، فهو يحتفظ أيضًا بجزء من المخاطر السمعة والتشغيلية. إذا طلب المشتري النشر على الحافة وتحكمًا تامًا، يقلل المختبر من السيطرة لكن قد يسعى أيضًا إلى تقليل المسؤولية. الصراع الحقيقي هو تلك القسمة.
اتجاه السوق: أقل عروض، مزيد من حوكمة الصناعة
تضمن إعلان التمان اعترافًا مهمًا: كانت “بالطبع متهورة” و“لا تبدو الصورة جيدة”. يشير ذلك إلى ضغط زمني ونافذة سياسية محددة. في العمليات، الاستعجال هو عدو لشيئين: الوضوح التعاقدي وتصميم ضوابط قابلة للتتبع.
ومع ذلك، من الصعب عكس الاتجاه: سيطلب المشترون الأضخم والأكثر تنظيمًا أن يعمل الذكاء الاصطناعي في ظروف حقيقية، مع قيود حقيقية. سيتوجه المعيار التنافسي نحو:
- هندسات تحد من التكامل مع الأجهزة التشغيلية عندما يتطلب المخاطر.
- العميل المؤهل وعمليات التغيير التي تحول الأمان إلى تنفيذ، لا إلى مستند.
- التتبع الذي يسمح بإظهار، وليس مجرد الإبلاغ، عن احترام حدود الاستخدام.
- شروط تجمد المعايير أو تحدد كيفية إعادة تفسيرها أمام التغييرات القانونية.
إذا تمكنت OpenAI من إدارة هذا النوع من العقود دون تدهور منتجها العام ودون زيادة البيروقراطية الداخلية، فإنها ستنشئ خندقًا لا يُعاد توظيفه في نموذج "أفضل قليلاً". وإن لم تفعل، فستكون التكلفة تنظيمية: المزيد من الطبقات، المزيد من الاستثناءات، المزيد من الاحتكاك ومنتج يسير بوتيرة أكثر العملاء تطلباً.
إستراتيجية لا تقرر في X ولا في منشور مؤسسي. ستُقرّر في هندسة النشر، وإجراءات الأمان، وتكاليف الاحتفاظ بالحواجز القابلة للتحقق في الإنتاج.













