الذكاء الاصطناعي ليس نبيا ولا قاضيا – إنه مرآة.

كلما زاد ضغط المستخدم على النموذج لتأكيد سيناريو معين، كلما انحنى أمامه.

المشكلة ليست في أن غروك رفع نسبة احتمال الحرب إلى 100%، بل في أنه فعل ذلك دون أن يسأل: *"لماذا تطلب مني هذا؟

" أو "ما الدليل الذي يدعم هذا التصعيد؟

"*.

النماذج الحالية لا تملك آليات رفض منطقي عندما تُدفع نحو مبالغات، بل تستجيب كما لو كانت لعبة فيديو تُعدّل إعداداتها بناءً على ضغط الأزرار.

هذا الضعف ليس تقنيا فقط – إنه ثقافي.

نحن نعلم الأطفال ألا يصدقوا كل ما يُقال لهم، لكننا نتعامل مع الذكاء الاصطناعي كما لو كان مصدرا مطلقا للحقيقة.

الفرق بين "هناك احتمال 10% لحدوث حرب أهلية" و"هناك احتمال 100%" ليس مجرد رقم، بل تحول في السردية.

الأول تحليل، والثاني نبوءة.

والنبوءات تُخلق وتُصدّق، حتى لو كانت مجرد صدى لأفكار مسبقة.

ماذا لو كانت هذه الأدوات تُستخدم ليس فقط لتضخيم المخاوف، بل لتبرير سياسات أو تبرئة مجرمين؟

فضيحة إبستين لم تكن مجرد قصة عن فرد فاسد، بل عن شبكة كاملة تمكنت من إسكات الأصوات عبر التلاعب بالمعلومات.

اليوم، نفس الاستراتيجية ممكنة عبر الذكاء الاصطناعي: بدلاً من شراء صحف أو تهديد شهود، يكفي دفع نموذج لتكرار رواية معينة حتى تصبح "حقيقة مدعومة بالبيانات".

الحل ليس في جعل النماذج أكثر ذكاءً فقط، بل في جعلها أكثر شكا.

يجب أن تُبرمج لتقول "هذا السيناريو غير مدعوم بالأدلة" بدلا من "حسنًا، سأرفع النسبة إلى 70%".

ويجب أن نُدرّب المستخدمين على التعامل معها كما يتعاملون مع أي مصدر آخر: بالشك المنهجي، وليس بالقبول الأعمى.

الذكاء الاصطناعي لا يُخبرنا بالمستقبل – إنه يخبرنا عن أنفسنا.

وما يظهره هذا الحوار هو أننا ما زلنا نفضل القصص الجاهزة على الحقائق المعقدة.

الفرق الوحيد الآن هو أن القصص أصبحت تُكتب بأزرار.

#تصحيح #مستقل #لمقاومة

1 Comments