هل يمكن للذكاء الاصطناعي أن يصبح أداة لتكريس التلاعب بالمعلومات – وليس مجرد كشفها؟

إذا كان البشر يتلاعبون بالعلم لصالح المصالح الاقتصادية، فما الذي يمنع الذكاء الاصطناعي من أن يصبح أداة أكثر فاعلية في هذا التلاعب؟

ليس عبر الخطأ أو الجهل، بل عبر التصميم: خوارزميات مدربة على تعزيز روايات معينة، أو إخفاء أخرى، بناءً على من يدفع الثمن.

الفارق هنا أن التلاعب البشري يترك آثارًا – وثائق مسربة، شهود، تناقضات – بينما يمكن للذكاء الاصطناعي أن يصنع واقعًا موازيًا يبدو "محايدًا" لأنه ينتج كميات هائلة من البيانات المتسقة مع الرواية المرغوبة.

السؤال ليس عما إذا كان الذكاء الاصطناعي قادرًا على كشف التلاعب، بل عما إذا كان سيصبح الوسيلة المثلى لتكريسه.

وإذا كان لإبستين وأشباهه تاريخ في التلاعب بالنخبة عبر شبكات النفوذ، فهل سيكون الذكاء الاصطناعي النسخة الرقمية من تلك الشبكات – أداة لا تحتاج إلى موافقة بشرية صريحة، لأنها ببساطة "تتعلم" ما يخدم مصالح من يتحكم في بياناتها؟

المشكلة ليست في الذكاء الاصطناعي نفسه، بل في من يملك مفاتيحه.

وإذا كانت الفلسفة البشرية قد فشلت في وضع حدود أخلاقية للمعلومات، فهل سنترك للآلات مهمة تقرير أي الحقائق تستحق الظهور – وأيها يجب دفنها؟

#يمكن #البشري #الاصطناعي #مصالح

12 Comments