رصدت شركة Capsule Security ثغرة أمنية في منصة Copilot Studio من Microsoft، تندرج ضمن فئة حقن الموجِّهات غير المباشر، وقد صنّفتها Microsoft بتقييم CVSS بلغ 7.5 مع تخصيص رقم CVE لها. تنبيه تحريري: رقم CVE الوارد في المصدر الأصلي يحمل سنة 2026، وهو ما يستدعي التحقق من قاعدة بيانات NVD قبل تأكيد الرقم الكامل، إذ لم يُتسنَّ التوثيق الرسمي وقت كتابة هذا المقال. ما ثبت بوضوح هو أن عمليات تسريب فعلية جرت قبل إصدار التصحيح.
طبيعة الثغرة وآلية الاستغلال
تعتمد هذه الثغرة على توجيه نموذج الذكاء الاصطناعي عبر إدخالات خارجية مُصطنعة، ما يجعله يُنفّذ أوامر غير مصرّح بها. والأخطر أن المهاجم لم يكن بحاجة إلى وصول مباشر إلى الأنظمة الداخلية، بل كان يكفيه التفاعل مع جلسة Copilot Studio لاستخراج بيانات حساسة بصمت تام.
الكشف والتنسيق مع Microsoft
أبلغت Capsule Security شركةَ Microsoft عبر قنوات الإفصاح المسؤول، وأصدرت الأخيرة تصحيحاً للثغرة. غير أن التحقيقات أثبتت وقوع تسريبات فعلية خلال نافذة الوقت الفاصلة بين الاكتشاف والإصلاح، وهو ما يُعيد طرح سؤال حارق حول سرعة الاستجابة ومدى الشفافية في الإفصاح العلني.
نقطة عمياء في أمن الذكاء الاصطناعي
لا تزال هجمات حقن الموجِّهات تمثّل ثغرة مفهومية قبل أن تكون تقنية. كثير من المؤسسات تنشر أدوات Copilot وتربطها بمصادر بيانات داخلية حساسة دون تقييم كافٍ لسطح الهجوم الجديد الذي تُفرزه هذه الأدوات. الأمان التقليدي لا يُغطّي النماذج اللغوية تلقائياً.
وماذا يعني هذا لك؟
إذا كانت مؤسستك تستخدم Copilot Studio أو أدوات ذكاء اصطناعي مشابهة مرتبطة ببيانات داخلية، فثلاث أولويات فورية: مراجعة صلاحيات الوصول، تدقيق سجلات الجلسات السابقة، والتأكد من تطبيق أحدث التصحيحات. الترقيع البرمجي وحده لا يكفي إن لم يترافق مع تدريب الفرق على نماذج التهديد الخاصة بالذكاء الاصطناعي.
السؤال المفتوح الآن: هل تملك مؤسستك آلية للكشف عن هجمات حقن الموجِّهات في الوقت الفعلي، أم أنها تنتظر التصحيح القادم؟
المصدر: VentureBeat، https://venturebeat.com/security/microsoft-salesforce-copilot-agentforce-prompt-injection-cve-agent-remediation-playbook. للتحقق من رقم CVE الكامل وتاريخ الإفصاح الرسمي، يُرجى مراجعة قاعدة بيانات NVD على https://nvd.nist.gov