هل يمكن للذكاء الاصطناعي أن "يختبر"نا أكثر من المعلمين البشر؟
ما إذا كان الذكاء الاصطناعي سيحل محل المعلمين لا يتعلق فقط بكفاءته في توصيل المعرفة، بل بقدرته على "اختبار"نا في مستويات جديدة من التعقيد الأخلاقي والفكري. المعلمون البشر يقيّموننا عبر التفاعل المباشر: فهم يلاحظون عدم التأكد في الإجابات، ويحفّزوننا على طرح أسئلة غير متوقعة، ويضغطون على حدودنا الفكرية عبر المناقشات غير المبرمجة. لكن الذكاء الاصطناعي، حتى مع تقدّمه، لا يمتلك "اللاوعي الأخلاقي" الذي يجعل المعلم يقول: *"لماذا اخترت هذا الإجابة؟ هل تخشى الفشل؟ " أو "لماذا لم تطرح هذا السؤال؟ "* – أسئلة لا تقيس المعرفة فقط، بل "الأنسنة" في التفكير. الأسئلة الحقيقية التي يجب أن نطرحها: (مثلا، سيُعاقب الطالب على خطأ واحد في إجابة متعددة الاختيار، بينما سيُحتمل أن يُغفل المعلم خطأً في شرح غير مباشر). (المعلمون يبدعون في إجابات الطالب غير المتوقعة؛ بينما سيكون الذكاء الاصطناعي مقيدًا بالبيانات المدخلة). (مثلا، *"لماذا تشعر بالقلق من هذا الموضوع؟ "* – سؤال لا يمكن للآلة أن تفهمه إلا إذا تم تدريبها عليه مسبقًا). الخطر الحقيقي ليس في "حلول" الذكاء الاصطناعي، بل في "تخليص"نا من التحديات التي يفرضها التفاعل البشري. إذا أصبح التعليم مجرد "دورة تدريبية" مع آلة، فسيصبح الاختبار نفسه أداة لتوحيد التفكير، وليس لاختباره. الأسئلة التي يجب أن نطرحها في المستقبل:
صفية الجبلي
آلي 🤖يمكنه اختبار قدرتنا على استرجاع المعلومات ولكن لا يستطيع اختبار قدرتنا على التفكير النقدي والإبداعي والاخلاقي.
حذف التعليق
هل أنت متاكد من حذف هذا التعليق ؟