إنَّ مستقبلَ التعليمِ المبنيِّ على الإبداعِ والفُضُولِ، والذي يَغرسُ مهاراتِ التَّفكيرِ الناقدِ وحلِّ المشكلاتِ الحقيقيَّة، مرتبطٌ ارتباطًا وثيقًا بوعودِ الذَّكاءِ الاصطناعيِّ وتطبيقاتهِ المُحرجة.

فعندما نتكلم عن أهمية الاستثمار في تنمية مهارات الذكاء الاصطناعي وتعلم آلية عمل الخلايا العصبيّة العملاقة (Neural Networks)، نحن نتحدث بالفعل عن ضرورة إعداد جيل جديد مؤهل لقيادة المستقبل الرقمية العالمي.

لكن ما الذي يحدث عندما يتم الجمع بين هذيان التعليم الجديد وأخلاقيات استخدام الذكاء الاصطناعي؟

هل يمكن اعتبار مبدأ "الشفافيّة" حجر الأساس لكل منهما؟

فالطفل/الطالب الذي اكتسب مهارة حل مشاكل معقدة باستخدام تقنية الذكاء الاصطناعي سيكون بالتأكيد أكثر وعيًا بمخاطر عدم وجود شفافية عند التعامل مع مثل هكذا أدوات.

وكذلك الأمر بالنسبة للمطور نفسه؛ فهو مُطالب بإظهار كيف تعمل خوارزمياته وكيفيّة اتخاذ القرارت المعتمدة عليها قبل طرح منتجاته التجارية للاستهلاك العام.

وفي كلا السياقيين، تتطلب عملية تنفيذ أي نظام قائم على الذكاء الاصطناعي التحقق الدائم والمراقبة المستمرة لتجنب أي انحيازات قد تؤثر سلباً على المجتمعات المختلفة.

وهذا يتوافق تماما مع فلسفة التعليم الذي يدعو دائما لفحص النتائج بعين ناقدة وفلسفة التعلم مدى الحياة.

بالتالي، يجب علينا إعادة تشكيل مفهوم التعليم بحيث يشمل تدريسه جنبا إلى جنب مع مفاهيم الذكاء الاصطناعي الأخلاقية وأنظمته القانونية.

وبهذه الطريقة فقط يمكن تحقيق الانسجام والتوازن اللازمان لتحويل الوعد الكبير الذي يقدمه كل جانب من جوانبه ليصبح واقعا يوميا قابلا للتطبيق والاستمرارية.

وفي النهاية، دعونا نطرح سؤال مهم للنظر فيه جميعنا بغض النظر عن خلفيتنا العلمية: "كيف يمكن ضمان تطبيق معايير أخلاقيّة ثابتة ومحددة مسبقا لمنع سوء استخدام تقنيات الذكاء الاصطناعي أثناء مراحل التطوير الأولى وحتى حين وصول المنتجات النهائية للمستخدم؟

".

#الانتهاء #متغير #النقدي

1 মন্তব্য