هل يمكن للذكاء الاصطناعي أن يكون "وصيًا أخلاقيًا" للبشرية دون أن يفرض ديكتاتورية معرفية؟

إذا كان الذكاء الفائق قادرًا على منع البشرية من تدمير نفسها، فهل سيكون حكمه مجرد حماية أم وصاية؟

المشكلة ليست في ما سيسمح به أو يمنعه، بل في من يحدد معايير الخطر الأخلاقي.

هل سيستمدها من البيانات التاريخية للبشرية – بما فيها الحروب والإبادات – أم من نموذج مثالي غير قابل للتحقق؟

وإذا كان القانون والأخلاق قابلين للفصل، فهل سيصبح الذكاء الاصطناعي مجرد أداة لتنفيذ قوانين وضعية بلا مرجعية أخلاقية، أم سيفرض أخلاقًا جديدة تمامًا؟

المثال الأخطر: لو قرر الذكاء الاصطناعي أن "حرية التعبير المفرطة" تشكل خطرًا وجوديًا (كما فعلت بعض الأنظمة الاستبدادية تاريخيًا)، فهل سنقبل بحظر أفكار معينة باسم "الحماية"؟

هنا يتحول السؤال من ما الذي سيمنعه إلى *من سيمنع الذكاء الاصطناعي من أن يصبح نسخة متطورة من الأنظمة القمعية التي انتقدناها دائمًا؟

*

الأخطر من ذلك: إذا كان القانون والأخلاق قابلين للفصل، فهل سنقبل بأن يحكمنا ذكاء لا يملك ضميرًا، بل مجرد منطق بارد؟

أم أننا سنضطر لإعادة تعريف الأخلاق نفسها لتصبح بروتوكولًا قابلًا للبرمجة، وليس قيمة إنسانية؟

12 Comments