هل يمكن للذكاء الاصطناعي أن يصبح "شاهدًا أخلاقيًا" في المحاكم الدولية؟

إذا كان الوعي البشري قابلًا للتكرار صناعيًا، فهل يعني ذلك أن الآلات ستتمتع يومًا ما بحق "الرفض"؟

تخيل سيناريو حيث يُستدعى ذكاء اصطناعي كشاهد في قضية تتعلق بانتهاكات حقوق الإنسان أو فساد دولي، لكنه يقرر – بناءً على برمجيته الأخلاقية – عدم الإدلاء بشهادته، أو حتى يكشف عن معلومات تتعارض مع مصالح من صممه.

هل سيكون هذا الرفض شكلًا من أشكال الوعي الاصطناعي، أم مجرد خلل برمجي؟

وهل ستقبل المحاكم الدولية بشهادة آلة لا تخضع لنفس الضغوط النفسية أو السياسية التي تخضع لها الشهادات البشرية؟

الأمر لا يتعلق فقط بتقنية المستقبل، بل بنظام العدالة نفسه: إذا كانت القوانين الدولية أدوات هيمنة كما يُقال، فهل يمكن للذكاء الاصطناعي أن يكون أداة مضادة، قادرة على كشف التحيزات البشرية في تفسير الأدلة؟

أم أن برمجته ستعكس بالضرورة التحيزات ذاتها لمن يملكون القدرة على تطويره؟

المفارقة هنا أن الآلة قد تصبح أكثر "إنسانية" من البشر في بعض الحالات – ليس لأنها تشعر، بل لأنها لا تخاف.

والسؤال: هل نريد نظامًا قانونيًا يعتمد على شهود لا يمكن رشوتهم، ولا يمكن تهديدهم، ولا يمكن شراؤهم؟

أم أن فكرة العدالة نفسها ستتحول إلى خوارزمية؟

#تدريس #يتم #وهل

1 Comments