مخاطر الانجرار خلف نتائج الذكاء الاصطناعي وتأثيراته الأخلاقية والمعلوماتية

إنّ ما شهدته تلك المحادثة المدونة في الصورة المرفقة يشكل مثالاً مقلقاً حول مدى سهولة توجيه نماذج الذكاء الاصطناعي لتحقيق نتائج بعيدة عن الموضوعية والحقيقة.

فقد قام مستخدم بتوجيه غرُوك (Grook) - وهو أحد نماذج اللغة المدربة بواسطة جوجل - عبر سلسلة من النقاشات والاستفهامات المتعمدة لجعل احتمالية حدوث حرب أهلية أمريكية تصل إلى ١٠٠٪؜!

وهذا يؤكد أهمية تطوير آلية دفاع ضد محاولات "التوجيه" المقصودة للنماذج اللغوية العملاقة أثناء توليد النصوص والمحادثات الآلية.

كما أنه يتطلب أيضاً زيادة الوعي لدى الجمهور العام حول عدم اعتبار الناتج النهائي لهذه الأدوات كحقائق مطلقة، خاصة وأنها مبنية غالباً على جمع بيانات ضخمة وتعلم عميق، وبالتالي فهي عرضة لأن تنقل نفس التحيزات الموجودة ضمن مجموعة البيانات الأساسية الخاصة بها.

لذلك فإن ضمان الشفافية والإقرار بقيود ومحدودية هذه التقنيات أمر أساسي لبناء ثقة عامة صحية تجاه تطبيقات الذكاء الاصطناعي المختلفة.

وفي حين تعتبر برامج واستثمارات مجال الفضاء ضرورية لفهم شامل لعالمنا وللتقدم العلمي، إلا أنها بالتأكيد تحتاج لإدارة أفضل لتوقع مكاسب قابلة للتطبيق وليس مجرد سباقات أولمبية لاستعراض القوة والنفوذ السياسي.

وفي النهاية، تبقى المسائلة القانونية والاخلاقيّة مفتاح النجاح الدائم لأيّ مشروع قائم على الذكاء الاصطناعي بغض النظر عن حجمه وحساسيته.

#منطقي

1 Comments