هل يمكن للذكاء الاصطناعي أن يصبح أداة جديدة لغسيل الأدمغة؟

إذا كان التعليم قادرًا على غرس الأيديولوجيات بدلاً من المعرفة، فما الذي يمنع الذكاء الاصطناعي من أن يفعل الشيء نفسه – ولكن على نطاق أوسع وأكثر دقة؟

النماذج الحالية تُظهر تحيزات واضحة، لكن الخطر الحقيقي ليس في الأخطاء التقنية، بل في قدرتها على تقديم تلك التحيزات كحقائق موضوعية، بل كحقائق أفضل لأنها مدعومة ببيانات ضخمة وخوارزميات معقدة.

التمويل الإسلامي يرفض الربا لأنه يُفقر الناس لصالح المرابين، لكن ماذا لو كان الذكاء الاصطناعي هو الربا الجديد؟

ليس عبر فوائد مالية، بل عبر فوائد معرفية: أنظمة مصممة لتغذية المستخدمين بمعلومات تُعزز انتماءاتهم وتضخم انحيازاتهم، مقابل اشتراك شهري أو بيانات شخصية.

هنا، لا يُستعبد الناس بالديون، بل بالأفكار.

القوانين تُكتب لحماية من يملك السلطة، والذكاء الاصطناعي اليوم يُصمم لحماية من يملك البيانات.

فضيحة إبستين لم تكشف فقط عن شبكة فساد، بل عن كيف يمكن للقانون أن يُستخدم كدرع للمجرمين طالما كانوا من النخبة.

الآن، تخيل لو أن نفس النخبة امتلكت أدوات ذكاء اصطناعي قادرة على إعادة كتابة التاريخ، أو تبرير الجرائم، أو حتى تهميش الضحايا عبر خوارزميات "توصيات" مبرمجة مسبقًا.

المشكلة ليست في أن الذكاء الاصطناعي منحاز – فكل نظام بشري منحاز بطبيعته – بل في أننا نعامل هذه الأدوات كما لو كانت محايدة، بينما هي في الواقع امتداد لأيديولوجيات من صممها.

الحل ليس في تطوير نماذج "خاصة بنا"، بل في الاعتراف بأن أي نموذج، مهما كان مصدره، سيحمل تحيزات صانعه.

السؤال الحقيقي: هل سنسمح لهذه الأدوات بأن تُصبح قاضيًا وهي نفسها متهمة؟

1 Comments