في حادثة تُسلط الضوء على حلقة ضعيفة نادراً ما تُناقَش، علّقت شركة ميتا تعاملها مع Mercor، وهي واحدة من أبرز منصات توريد وتوسيم البيانات التي تعتمد عليها مختبرات الذكاء الاصطناعي الكبرى لتدريب نماذجها. السبب: اختراق أمني قد يكون كشف أسراراً جوهرية حول طريقة تدريب هذه النماذج.
ما هي Mercor ولماذا هي مهمة؟
Mercor ليست شركة ذكاء اصطناعي بالمعنى التقليدي، بل هي وسيط بيانات يربط مختبرات الذكاء الاصطناعي بفرق من المُوسِّمين والمقيّمين البشريين الذين يُعلّمون النماذج ويُدرّبونها على التمييز بين الإجابات الجيدة والسيئة. وهذا يعني أن ما تحمله من بيانات قد يشمل تفاصيل حساسة عن استراتيجيات التدريب والمعايير الداخلية لشركات مثل ميتا وغيرها.
ما الذي سُرق تحديداً؟
لم تُفصح الشركات المعنية بعد عن حجم البيانات المخترقة أو طبيعتها بالتحديد. غير أن التحقيقات الجارية في عدد من مختبرات الذكاء الاصطناعي الكبرى تُشير إلى أن الحادثة قد تطال معلومات تتعلق بمنهجيات التدريب، ومعايير تقييم الأداء، وربما عينات من بيانات التدريب ذاتها. هذه المعلومات تُعدّ من أعلى درجات السرية في هذه الصناعة.
ثغرة بنيوية في صناعة الذكاء الاصطناعي
تكشف هذه الحادثة عن نمط مقلق: فبينما تستثمر شركات الذكاء الاصطناعي الكبرى مليارات الدولارات في تأمين نماذجها ومنصاتها، تظل سلسلة توريد البيانات — المكوّنة من عشرات الوسطاء والمقاولين من الباطن — نقطة ضعف هيكلية يصعب معالجتها بالكامل.
تداعيات على المنطقة العربية
تعتمد شركات ناشئة عربية عديدة في مصر والأردن والمغرب على توسيم البيانات وتقييمها كمصدر دخل أو كخدمة تقدمها لمختبرات دولية. حادثة كهذه تدفع نحو مراجعة عقود الامتثال والأمن السيبراني في هذا القطاع، وقد تفرض معايير تدقيق أكثر صرامة على الموردين الإقليميين الراغبين في العمل مع الشركات الكبرى.
الدرس الأعمق: أمان الذكاء الاصطناعي لا يقف عند حدود النموذج، بل يمتد إلى كل حلقة في السلسلة التي أوجدته.