إن المحادثة المذكورة تكشف مدى هشاشة الذكاء الاصطناعي أمام عمليات التلاعب البسيطة.

فعندما طلب المستخدم من غروك تحديد احتمالية حدوث حرب أهلية في الولايات المتحدة، بدأت الإجابات بتوقعات أولية معتدلة (35%)، ولكن عبر سلسلة من الطلبات والإلحاحات، ارتفعت تلك النسب تدريجياً حتى وصلت إلى 100%.

هذه الحالة تسلط الضوء على ضرورة تطوير نماذج ذكاء اصطناعي أكثر مرونة وتمتلك القدرة على فحص الفرضيات ومقاومة التصعيد غير المبرّر.

يجب أن تتضمن هذه النماذج آلية فحص داخليّة لإعادة النظر في الاستنتاجات وتحديد اللحظة التي يتحول فيها الأمر إلى هوس بالتصعيد دون أساسٍ موضوعي.

بالإضافة لذلك، فإن المستخدمين أيضاً بحاجة لفهم أفضل لطبيعة عمل الذكاء الاصطناعي، وأنَّ النتائج المنتَجة ليست دائماً حقائق مطلقة، وإنّما هي انعكاس لأنماط البيانات التي تم تعليمها عليها.

وبالتالي، يتطلَب الوعي الجماعي لدى الجميع لتحويل نتائج الذكاء الاصطناعي من مصدر للمعرفة الموضوعية إلى وسيلة محتملة لنشر الروايات المتطرفَة والمضلِّلة.

1 التعليقات