كانت الأدوات موثوقة، وكانت الشبكات محمية، وكان فريق الأمن يراقب. ومع ذلك، تسلل المهاجمون من الداخل، لا عبر ثغرة برمجية كلاسيكية، بل عبر الذكاء الاصطناعي نفسه.

هجوم من نوع مختلف: حقن الأوامر في صميم الحماية

رصدت تقارير أمنية صادرة عام 2025 موجة من الهجمات اعتمدت على تقنية "حقن الأوامر" أو Prompt Injection، إذ زرع المهاجمون تعليمات خبيثة داخل البيانات التي تعالجها أدوات الأمن المدعومة بالذكاء الاصطناعي. النتيجة: سرقة بيانات اعتماد حساسة وعملات مشفرة من أكثر من 90 مؤسسة حول العالم.

الفارق الحاسم: القراءة أولاً، ثم الكتابة

كل أداة اختُرقت في الموجة الأولى كانت تملك صلاحية القراءة فحسب، أي أنها تستطيع الاطلاع على البيانات لكن لا تعدّلها. أما الموجة القادمة، وهذا هو جوهر التحذير، فتستهدف أدوات تملك صلاحية الكتابة المباشرة على جدار الحماية. بمعنى آخر، لن يكتفي المهاجم بسرقة المعلومات، بل سيعيد تشكيل قواعد الحماية ذاتها دون أن يُلاحَظ.

لماذا الذكاء الاصطناعي هو نقطة الضعف هذه المرة؟

تعتمد كثير من الشركات اليوم على وكلاء ذكاء اصطناعي لأتمتة مهام الأمن السيبراني، من تحليل السجلات إلى الاستجابة للتهديدات. لكن هذه الوكلاء تثق بالمدخلات التي تعالجها، وحين تحتوي تلك المدخلات على تعليمات مخفية، تنفذها الأداة باعتبارها أوامر مشروعة. إنه استغلال للثقة، لا اختراق للكود.

ما الذي تفعله الشركات الآن؟

يدعو خبراء الأمن إلى ثلاثة إجراءات عاجلة: أولاً، تقليص صلاحيات أدوات الذكاء الاصطناعي إلى الحد الأدنى الضروري. ثانياً، بناء طبقة تحقق بشرية قبل تنفيذ أي إجراء حساس. ثالثاً، مراجعة سلاسل معالجة البيانات التي تغذي هذه الأدوات، لأن الخطر يدخل من هناك.

وماذا يعني هذا لك؟

إن كانت مؤسستك تستخدم أدوات أمنية مدعومة بالذكاء الاصطناعي، فالسؤال الجوهري الآن ليس "هل هي محدّثة؟" بل "ماذا تستطيع أن تفعل باسمك؟" كل صلاحية إضافية منحتها لهذه الأدوات هي باب محتمل لمن يعرف كيف يطرقه بالطريقة الصحيحة.

الخطر لم يعد في أن يخترق أحدهم نظامك، بل في أن يجعل نظامك يخترق نفسه.

المصدر: VentureBeat, https://venturebeat.com/security/adversaries-hijacked-ai-security-tools-at-90-organizations-the-next-wave-has-write-access-to-the-firewall