موجة واسعة من الشكاوى تجتاح منصات المطورين ضد أنثروبيك، بعد ملاحظات متكررة عن تراجع أداء نموذج كلود أوبوس وأداة كلود كود. الشركة تنفي أي تدخل متعمد، لكن الأسئلة لا تزال مفتوحة.

ما الذي يلاحظه المستخدمون؟

نشر عشرات المطورين على منصات مثل X وReddit تقارير تصف تراجعاً ملحوظاً في دقة الإجابات وجودة الكود الذي يولده كلود. بعضهم يستشهد بنتائج متكررة ومقارنات مباشرة بين إصدارات سابقة والإصدار الحالي، مشيرين إلى أن النموذج بات أكثر تحفظاً وأقل إبداعاً في حل المشكلات المعقدة.

موقف أنثروبيك: لا نفعل ذلك عمداً

ردّ قادة الشركة بحزم نافين وجود ما يسميه المستخدمون بـ"التخفيف المتعمد" أو nerfing. وأشارت الشركة إلى أن أي تغييرات في الأداء قد تكون نتيجة تحسينات في الضبط الدقيق أو تعديلات في البنية التحتية، لا قراراً مقصوداً بتقليص القدرات.

لماذا يهم هذا النقاش؟

الثقة هي العملة الأساسية في سوق نماذج الذكاء الاصطناعي. حين يشعر المطورون بأن أداء النموذج يتذبذب دون إشعار مسبق، فإن ذلك يدفعهم للبحث عن بدائل. منافسون مثل OpenAI وGoogle DeepMind يراقبون هذا النقاش باهتمام بالغ.

وماذا يعني هذا لك؟

إن كنت تبني تطبيقاً أو سير عمل يعتمد على كلود، فقيّم أداءه بنفسك عبر اختبارات موحدة قبل أي تحديث. لا تعتمد على وعود الشركات وحدها، بل اعتمد على مقاييس موضوعية وقارن النتائج بانتظام. أما المطورون العرب الذين يبنون منتجات باللغة العربية على كلود، فإن تذبذب الأداء يُضاعف تكاليف الاختبار لديهم، إذ يضطرون إلى إعادة التحقق من جودة المخرجات العربية في كل تحديث، وهو عبء إضافي لا تعكسه أسعار الاشتراك الحالية.

المصدر: VentureBeat، venturebeat.com/ai/anthropic-denies-intentionally-nerfing-claude