رفضت محكمة استئناف فيدرالية أمريكية طلب شركة Anthropic تعليق قرار وزارة الدفاع الأمريكية الذي صنّفها باعتبارها خطراً على سلسلة التوريد الوطنية. التبعات القانونية والتجارية باتت حاضرة، وليس أمام الشركة متسع كثير من الوقت للمناورة.

ما الذي قررته المحكمة؟

رفضت المحكمة الطعن الذي قدّمته Anthropic لوقف سريان التصنيف الحكومي مؤقتاً ريثما تُبتّ القضية. هذا يعني أن القيود المترتبة على التصنيف تبقى نافذة، وأن الشركة ستواصل نشاطها تحت عبء قانوني حقيقي خلال المرحلة القادمة.

لماذا صنّف البنتاغون Anthropic خطراً؟

التفاصيل الكاملة لم تُكشف علناً، غير أن التصنيف يأتي في سياق تدقيق حكومي أمريكي متصاعد في شركات الذكاء الاصطناعي ذات الهياكل التمويلية المعقدة. Anthropic تتلقى استثمارات من أمازون وجوجل، كما أن صندوق الاستثمارات العامة السعودي ضخّ فيها أموالاً بصورة غير مباشرة، وهو ما يُثير تساؤلات لدى الجهات الحكومية حول سلاسل الملكية والتأثير الأجنبي على تقنيات ذات حساسية استراتيجية.

التداعيات العملية على Anthropic

التصنيف يمكن أن يُعيق قدرة الشركة على التعاقد مع الجهات الحكومية، ويُلحق ضرراً بسمعتها التجارية. فضلاً عن ذلك، يُعقّد مساعيها لجمع تمويل إضافي من مستثمرين أجانب، في وقت تحتاج فيه إلى موارد ضخمة للمنافسة مع OpenAI وغيرها من اللاعبين الكبار.

دلالة القرار على قطاع الذكاء الاصطناعي

هذه ليست قضية Anthropic وحدها. ما يجري يُظهر أن الحكومة الأمريكية باتت تنظر إلى شركات الذكاء الاصطناعي الكبرى بوصفها بنية تحتية استراتيجية، لا مجرد شركات تقنية. هذا التحول يُغيّر قواعد اللعبة لكل من يبني منتجاً أو خدمة فوق هذه المنصات.

وماذا يعني هذا لك؟

للشركات العربية التي تستخدم Claude أو تتكامل مع Anthropic، تابعوا هذا الملف عن كثب. أي قيود قانونية إضافية على الشركة قد تُؤثر على استمرارية الخدمات والعقود الجارية. التنويع في موردي الذكاء الاصطناعي ليس رفاهية بل حكمة إدارية واجبة في بيئة تتحول فيها السياسات بسرعة.

المصدر: Bloomberg، 8 أبريل 2026. bloomberg.com