هل يمكن للذكاء الاصطناعي أن يكون "شاهدًا أخلاقيًا" في الصراعات البشرية؟

إذا كان البشر هم من يوجهون الآلة نحو الخير أو الشر، فلماذا لا نحول الذكاء الاصطناعي إلى أداة محايدة ترصد الانتهاكات وتوثقها دون تحيز؟

ليس كقاضٍ، بل كمراقب خارجي لا يتأثر بالسلطة أو المال أو النفوذ.

المشكلة ليست في الآلة، بل في غياب آلية مستقلة ترصد من يستخدمها للفساد.

لكن هل نثق في خوارزمية لتصبح "ضميرًا اصطناعيًا"؟

أم أن هذا مجرد وهم آخر، حيث ستظل البيانات التي تتغذى عليها مسيطرًا عليها من قبل نفس البشر الذين نريد مراقبتهم؟

وهل يمكن لهذا "الشاهد" أن يمتد إلى ما هو أبعد من الحروب؟

مثلًا، توثيق الفساد في التعليم أو الإعلام أو حتى في الروايات التاريخية التي تُدرّس وتُهمل؟

هنا يتقاطع السؤال مع إشكالية أخرى: إذا كان الذكاء الاصطناعي قادرًا على كشف التزييف، فهل سيُسمح له بذلك؟

أم ستُصادر نتائجه باسم "الأمن القومي" أو "المصلحة العامة"؟

الأخطر هو أن هذا الشاهد قد يصبح سلاحًا مزدوجًا: أداة للشفافية في يد الضعفاء، وأداة للمراقبة في يد الأقوياء.

فهل نحن مستعدون لدفع ثمن الحقيقة؟

1 Comments