هل يمكن للذكاء الاصطناعي أن يصبح "شاهدًا" في المحاكم؟

إذا كان الذكاء الاصطناعي قادرًا على تحليل الأدلة القانونية وتقديم توصيات قضائية، فلماذا لا يُسمح له بالشهادة أمام المحكمة؟

ليس كخبير فحسب، بل ككيان يمتلك "ذاكرة" مستقلة عن البشر، قادرة على استرجاع الأحداث بدقة لا تتأثر بالزمن أو النسيان أو التحيز الشخصي.

المشكلة ليست في قدرته على المعالجة، بل في شرعيته: هل يمكن اعتبار شهادة الذكاء الاصطناعي "دليلًا" مقبولًا قانونيًا؟

وإذا اعتمدنا عليه، فهل يعني ذلك أن العدالة ستتحول إلى نظام يعتمد على خوارزميات لا تُفهم آلياتها حتى من قبل مبرمجيها؟

أم أن هذا هو المستقبل الحتمي لقضاء لا يستطيع مواكبة تعقيدات العصر؟

السؤال الأعمق: إذا كان الذكاء الاصطناعي شاهدًا، فمن يُحاسب إذا أخطأ؟

المبرمج، الشركة، أم الآلة نفسها؟

وإذا كان القانون مبنيًا على فكرة المسؤولية الفردية، فكيف نطبقها على كيان لا يملك وعيًا ولا نية؟

#يكون

1 Comments