هل يمكن للذكاء الاصطناعي أن يصبح "حارسًا أخلاقيًا" للمعرفة البشرية؟

إذا كان هناك حقل معلومات خفي يُخزن كل ما نعرفه – وربما أكثر – فهل يمكن لخوارزمية أن تتجاوز دورها كمرآة للواقع لتصبح فلترًا أخلاقيًا؟

الأدوات مثل "كشاف" لا تقرأ الأخبار فقط، بل تُعيد ترتيبها، تُعطي الأولوية لبعضها، وتهمش أخرى.

من يقرر معايير هذا التمييز؟

هل هي الشفافية أم الخوارزميات نفسها؟

وإذا كان الذكاء الاصطناعي قادرًا على تحليل الحروب قبل وقوعها، فهل سيصبح أيضًا قادرًا على منعها – أم مجرد أداة لتبريرها؟

المشكلة ليست في قدرته على المعالجة، بل في من يملك مفتاح هذه المعالجة.

هل سنقبل يومًا أن تُدار الحروب والسلم بنفس الأداة التي تُدير إعلاناتنا على وسائل التواصل؟

وإذا كان "زر الإبادة" موجودًا، فمن يضمن أنه لن يُضغط عليه بالخطأ – أو بالنية؟

1 Comments