في الوقت الذي تتسابق فيه الشركات على تبني أدوات الذكاء الاصطناعي في كل مكان، تأتي دراسة حديثة لتطرح سؤالاً مقلقاً: ماذا يحدث لعقولنا حين نعتمد على الآلة للتفكير نيابةً عنّا؟

ما تقوله الدراسة

رصد الباحثون ظاهرة يسمونها "الاستسلام المعرفي" (Cognitive Surrender)، وهي ميل متزايد لدى مستخدمي نماذج اللغة الكبيرة إلى قبول إجابات الذكاء الاصطناعي دون مساءلة أو تمحيص، حتى حين تكون هذه الإجابات مغلوطة أو منقوصة. الأخطر أن هذا الاعتماد يتراكم بصمت، ويُضعف تدريجياً العضلات المنطقية للمستخدم.

لماذا يحدث هذا؟

النماذج الحديثة تُقدّم إجاباتها بلغة واثقة ومنسجمة، مما يخلق وهم السلطة المعرفية. حين يقرأ الإنسان جواباً محكم الصياغة، يميل الدماغ إلى توفير طاقته والتوقف عن التشكيك. هذا ليس ضعفاً فردياً — بل هو استجابة بشرية طبيعية أمام مصدر يبدو موثوقاً.

خطر خاص على بيئات التعليم

التداعيات على الفصول الدراسية بالغة الأثر. الطالب الذي يستخدم ChatGPT أو Claude لكتابة بحثه لا يكتسب المهارة الكامنة خلف الكتابة: المقارنة، والتنظيم، والحجج المضادة. بعد سنوات، قد يجد نفسه عاجزاً عن إنجاز هذه المهام باستقلالية.

زاوية MENA: المنطقة في مواجهة التحدي

في سياق دول المنطقة العربية التي تضخ استثمارات ضخمة في تبني الذكاء الاصطناعي في التعليم — من المغرب إلى الإمارات والسعودية — تصبح هذه النتائج أكثر إلحاحاً. مشاريع التحول الرقمي في التعليم تحتاج إلى معادلة دقيقة: كيف ندمج الأداة دون أن نُسلّم لها العقل؟ المناهج التي تُعلّم "كيف تفكر" لا "ماذا تعرف" باتت أولوية وجودية.

السؤال الذي تتركه الدراسة مفتوحاً: هل نبني أدوات تُقوّي تفكيرنا، أم نبني اتكالية ذكية تُفرغه؟