أربع خطب في مؤتمر RSAC 2026 وصلت إلى نتيجة واحدة دون تنسيق: الثقة الصفرية يجب أن تشمل الذكاء الاصطناعي.

المشكلة بلغة واضحة

وكلاء الذكاء الاصطناعي باتوا يمتلكون صلاحيات واسعة داخل الأنظمة المؤسسية، من إرسال رسائل إلكترونية إلى تنفيذ كود برمجي. لكن بيانات الاعتماد التي تمنحها المؤسسات لهؤلاء الوكلاء تعيش في البيئة ذاتها التي قد يعمل فيها كود غير موثوق. هذا يعني أن أي اختراق للوكيل يمكن أن يؤدي إلى انهيار منظومة الأمن بأكملها.

ما قاله RSAC 2026

في مؤتمر أمن المعلومات الأبرز عالمياً، توافق متحدثون من Microsoft وCisco وNVIDIA وAnthropic على تشخيص واحد دون أن يكونوا قد تشاوروا. Vasu Jakkal من Microsoft أكدت أن مفهوم الثقة الصفرية Zero Trust يجب توسيعه ليشمل وكلاء الذكاء الاصطناعي. Jeetu Patel من Cisco طالب بفصل بيانات الاعتماد عزلاً كاملاً عن بيئة تنفيذ الكود.

المعماريتان الجديدتان

المقترحات العملية تتمحور حول نهجين. الأول هو عزل بيانات الاعتماد في بيئة محمية منفصلة تماماً لا يصلها الكود التنفيذي مباشرة. الثاني هو تحديد نطاق التأثير Blast Radius بحيث يُقيَّد ما يستطيع كل وكيل الوصول إليه حتى في حالة الاختراق. هذان المفهومان لم يكونا في اعتبار معظم فرق الأمن حتى الآن.

وماذا يعني هذا لك؟

إذا كانت مؤسستك تعتمد وكلاء ذكاء اصطناعي في بيئات العمل، فالسؤال الذي يجب طرحه اليوم على فريقك التقني هو ببساطة: أين تعيش بيانات اعتماد هؤلاء الوكلاء، ومن يمكنه الوصول إليها؟ الإجابة قد تكون مفاجئة. وهذا ينطبق بشكل خاص على فرق الأمن في المؤسسات الخليجية التي شرعت في نشر وكلاء الذكاء الاصطناعي ضمن بيئات العمل الحكومية والمالية، إذ إن سرعة التبني غالباً تسبق مراجعة بنية الصلاحيات.

الذكاء الاصطناعي يتوسع في المؤسسات بسرعة تفوق قدرة فرق الأمن على المراقبة، والفجوة بينهما هي ما يبحث عنه المهاجمون.

المصدر: VentureBeat، https://venturebeat.com/security/ai-agent-zero-trust-architecture-audit-credential-isolation-anthropic-nvidia-nemoclaw