في سابقة قانونية غير مسبوقة، صنّفت وزارة الدفاع الأمريكية شركةَ Anthropic، صانعة نموذج الذكاء الاصطناعي كلود، بوصفها "خطراً على سلسلة التوريد"، وحظرت على جميع المقاولين العسكريين الأمريكيين التعاملَ معها — قبل أن يُجمّد قاضٍ فيدرالي هذا القرار في 26 مارس 2026.

الخلاف الجوهري: البنتاغون يريد ذكاءً اصطناعياً يخدم العمليات العسكرية دون قيود. Anthropic تقول إن قيودها الأخلاقية غير قابلة للتفاوض — وهو ما أفضى إلى أول تصنيف من نوعه في التاريخ: شركة ذكاء اصطناعي كـ"خطر وطني" بسبب رفضها توسيع استخدامات منتجها.

لماذا يهم هذا المنطقة العربية؟ دول الخليج تعتمد بشكل متزايد على نماذج مثل كلود في قطاعات الصحة والتعليم والإعلام. أي تصعيد في هذا الملف قد يدفع الحكومات نحو تسريع الاستثمار في نماذج محلية أو بديلة. السؤال الجوهري: من يُحدّد قواعد اللعبة حين يتعارض الأمن القومي مع أخلاقيات الذكاء الاصطناعي؟