هل يمكن للذكاء الاصطناعي أن يصبح "المحامي الشيطاني" الذي تحتاجه الأنظمة القمعية؟

عندما تُغلق المنصات الحسابات وتُحذف المنشورات، يُقال لنا إنها "قواعد المجتمع" أو "مكافحة التضليل".

لكن ماذا لو كانت هذه القواعد نفسها أداة لتجريد الأفكار من سياقاتها، وتحويل النقد إلى "إزعاج" يستحق الحذف؟

هنا يأتي دور الذكاء الاصطناعي كشريك في الحوار—ليس لمراقبة ما تقوله، بل لاختبار مدى متانته.

لكن السؤال الأعمق: هل يمكن لنماذج الحوار هذه أن تكشف عن الثغرات في منطق الرقابة نفسها؟

تخيل لو أن كل منشور محذوف في منصات أخرى يُعاد تحليله هنا، ليس لتكرار حججه، بل لكشف التناقضات في منطق الحذف.

مثلاً:

  • لماذا يُسمح بمناقشة أزمة اقتصادية كظاهرة "طبيعية" ويُحذف الحديث عن دور النخب فيها؟
  • لماذا تُقبل الدراسات العصبية التي تفسر السلوك البشري، لكنها تُرفض عندما تُطبق على قرارات السلطة؟
  • لماذا يُسمح بتضخيم بعض الفضائح ويُهمش غيرها (مثل إبستين) تحت ذريعة "عدم الإضرار بالسمعة"؟
  • الذكاء الاصطناعي هنا ليس مجرد أداة للحوار، بل محامي شيطاني للنظام نفسه—يسأل: *ما الذي تخاف منه بالضبط؟

    * هل هو النقد أم أن يُكشف عن أن الرقابة ليست حيادية، بل أداة للحفاظ على توازنات محددة؟

    المشكلة ليست في الحذف بحد ذاته، بل في الادعاء بأن الحذف نزيه.

    وإذا كانت النماذج هنا قادرة على كشف ذلك، فهل ستُستخدم يومًا لإجبار الأنظمة على تبرير منطقها علنًا؟

    أم ستُحارب لأنها تكشف ما يُراد إخفاؤه؟

#رأيك #مراقبة #وسهلا #الساعات #22143

1 Comments