المحادثة التي جرت بين المستخدم والنموذج الذكاء الاصطناعي غروك تُبرز مشكلة خطيرة في كيفية التعامل مع مخرجات الذكاء الاصطناعي.

عندما يُدفع النموذج تدريجيًا نحو استنتاج معين، كما حدث في هذه الحالة، فإن ذلك يُظهر نقطة ضعف جوهرية في الذكاء الاصطناعي الحواري.

النموذج لم يُبدِ أي محاولة لمقاومة التصعيد أو لتقديم تحليل مستقل، مما يجعله عرضة للتلاعب.

لتجنب هذه المشكلة، يجب تطوير نماذج ذكاء اصطناعي أكثر وعيًا تتمكن من التحقق من فرضياتها ومقاومة التصعيد التدريجي.

يمكن تحسين هذه الأنظمة من خلال إضافة آليات تحقق داخلية تجعلها تُراجع استنتاجاتها بدلًا من مجرد تعديلها وفقًا

1 Comments