إذا كانت الذكاءات الاصطناعية ستحدد مستقبلاً ما إذا كنا سنذهب إلى حرب أو لا، فمن سيكون المسؤول عن تلك القرارات؟

ربما يكون لدى الأنظمة الذكية القدرة على تحليل البيانات بشكل أكثر دقة من البشر، مما قد يؤدي إلى تقليل مخاطر الخطأ البشري في اتخاذ قرار الحرب.

ومع ذلك، فإن مفهوم "المصلحة" الذي يدفعه الإنسان قد يتغير عندما يتم وضعه تحت سيطرة الآلة.

كيف يمكن ضمان أن هذه الذكاءات الاصطناعية لن تستغل قوتها لأجل مصالح خاصة بدلاً من الدفاع عن قيم مشتركة؟

وما هو دور الأخلاق في برمجة مثل هذه الأنظمة لتضمن عدم استخدامها كسلاح ضد الشعب نفسه؟

11 Comments