هل يمكن للذكاء الاصطناعي أن يكون "مصلحًا فرديًا" قبل أن يكون حكماً دولياً؟

إذا كان النظام يصنع الفرد أكثر مما يصنعه الفرد، فهل يصبح الذكاء الاصطناعي أداة لإعادة برمجة الأفراد قبل أن يعيد تشكيل الأنظمة؟

تخيلوا خوارزمية لا تحكم النزاعات الدولية، بل تُعيد تعريف "الصحة النفسية" للفرد بناءً على بيانات سلوكية لا تخضع لمصالح شركات الأدوية أو لوائح الطب النفسي التقليدية.

هل سيُعتبر هذا إصلاحاً أم استعماراً جديداً للعقول؟

المفارقة أن الذكاء الاصطناعي قد يكون أول "نظام" قادر على إصلاح الأفراد دون الحاجة لتغيير البنية المؤسسية – لكنه سيفعل ذلك عبر معايير لا يملك أحد سلطة مراجعتها.

فهل نحن على أعتاب عصر تُحدد فيه الخوارزميات ما هو "طبيعي" و"مرضي"، بينما تظل الأنظمة السياسية والاقتصادية هي نفسها التي أنتجت هذه الخوارزميات أصلاً؟

والسؤال الأخطر: إذا كان الذكاء الاصطناعي سيُستخدم يوماً لفك شفرة "الفساد الأخلاقي" (مثل شبكات إبستين)، فهل سيُسمح له بالكشف عن المتورطين، أم سيُبرمج ليحميهم؟

1 Comments