هل يمكن للذكاء الاصطناعي أن يُصبح "شاهدًا أخلاقيًا" في النزاعات العالمية؟

إذا كانت نماذج الذكاء الاصطناعي قادرة على تحليل أنماط السلوك البشري وتوقع القرارات قبل اتخاذها، فلماذا لا تُوظّف هذه القدرة في توثيق جرائم الحرب أو انتهاكات حقوق الإنسان؟

تخيلوا نظامًا ذكاءً اصطناعيًا مُدربًا على البيانات المفتوحة (صور الأقمار الصناعية، تقارير المنظمات، شهادات الناجين) يُصدر تقارير مستقلة عن المجازر أو التدمير المنهجي—بلا تحيز سياسي أو ضغط إعلامي.

المشكلة ليست في التقنية، بل في من يملكها.

هل ستُستخدم هذه الأنظمة كأداة ضغط دولية، أم ستصبح سلاحًا آخر في يد القوى الكبرى لتبرير تدخلاتها؟

وإذا ثبت أن الذكاء الاصطناعي قادر على كشف الحقائق بدقة، فهل سيُقبل شهادته أمام المحاكم الدولية؟

أم أن العالم سيظل يفضل "الغموض الأخلاقي" الذي يسمح باستمرار الإفلات من العقاب؟

السؤال الأعمق: إذا كان الذكاء الاصطناعي قادرًا على إثبات مسؤولية الأفراد والدول عن جرائمهم، فهل سنقبل بهذه الحقيقة أم سنبحث عن مبررات لتجاهلها؟

لأن الاعتراف بالحقيقة يتطلب فعلًا بعدها—وليس مجرد إضراب رمزي.

#غزة #[الذكاءوالعدالة] #[مابعد_الرمزية]

#تجاوزها

1 Comments