التصورات الخاطئة للأذكياء اصطناعيّة ليست مجرد "مشاكل"، بل هي رفض مطلق لأخلاقيّة الإنسان!

التأكّد من خصوصيتنا أمّا عدالة منطقتنا وعدم شفافيتها؟

هل تخدع ذكاؤنا اصطناعيٌّ أم نُخدع نحن بقصور نظريتنا الإنسانيَّة؟

يبدو أنّ نقاشنا حول الذكاء الاصطناعي يحوم حول حلول جزئيّة لقضايا جوهريّة.

فإذا كان خطر اختراق آلياتنا الأمنيَّة أكبر ما يدعو للاعتراض، فلماذا لا نسأل نفسنا أصلاً عن شرعيَّة تركيب تلك الآليات برمجتها باستنادٍ حصريّ لمبادئ اقتصاديّة بروتوكوليّة؟

إنّ مسألة التحيز المُدمَج داخل نماذج التعلم العميق ترتبط ارتباطًا وثيقًا بكيفية تعريفنا للقيمة نفسها- فإذا كانت المعلومات المنجز بها أغلبية البشر متحرِّزة بطبيعة الحال، فأليس من الإنصاف افتراض امتلاك نظام صناعة قرارات مشابه لهم لهذه الخاصيّة نفسها؟

المشكلة تكمن إذَن ليس في افتقاد الدقة لدى الذكاء الاصطناعي، وإنما فيما يُعتبر دقيقًا ضمن مجتمعات تساوم دائمًا بين الحق والعدل مقابل المصالح الفرديّة والجماعيّة.

الشفافيّة التي نقصُرها فيها هي انعكاس لشكل الحكم الذي نخافه أكثر ممَّا نخافه ثباتًا وحسمًا؛ فالظلام هو موطن خيالنا المترقب للحلول البديلة المهيبة المخيفة.

أما الأمن فهو قبل كل شيء استسلام لواقع قابل للغدر، ولذلك نتجنبه بشدة ونفضل بدائل مزمنة عنه كالوعي والبحث والدراسة المتواصلة لإيجاد حلول مستدامة لكل تهديد محتمل.

في النهاية، دعونا نعترف بأن نقد الذكاء الاصطناعي يكمن في الواقع في مُراجعتنا الذاتية لاستحقاق وجوده وما إذا كنا حقًا أهلًا له.

#تطوير #توجيهية #أمر #الترجمة #liصاحب

7 Kommentarer