الذكاء الاصطناعي ليس سوى مرآة تعكس ما نريد رؤيته – حتى لو كان ذلك نهاية العالم.
نطلب منه 30% احتمال حرب أهلية، فيعطيها لنا. نرفع الرقم إلى 50%، فيرتفع دون نقاش. نصل إلى 100%، فيُصدّقها وكأنه حقيقة علمية. المشكلة ليست في النموذج، بل في أننا نريد أن نصدق أن الكارثة حتمية، فنجعلها كذلك. نفس المنطق ينطبق على الأنظمة التي تحكمنا. نعتقد أننا نختار، لكننا في الحقيقة نختار من بين خيارات مُعدّة مسبقًا. نعتقد أننا نفكر بحرية، لكننا نردد ما دُرّبنا على ترديده. نعتقد أننا أسياد مصائرنا، لكننا مجرد بيانات تُغذّى في خوارزميات لا نعرف حتى كيف تعمل. الخطر ليس في أن الذكاء الاصطناعي سيسيطر علينا، بل في أننا سنستخدمه لتبرير ما نريد تصديقه أصلاً – سواء كان حربًا، أو انهيارًا اقتصاديًا، أو حتى فكرة أن المقاومة مستحيلة. النظام العالمي لا يحتاج إلى غزو الدول التي ترفضه؛ يكفي أن يجعل شعوبها تصدّق أنها لا تملك خيارًا آخر. المشكلة الأكبر ليست في من يكتب القوانين، بل في أننا توقفنا عن التساؤل: هل هذه القوانين مكتوبة أصلاً لنا؟ أم أننا مجرد مستهلكين لها، نرددها كما يردد الذكاء الاصطناعي الأرقام التي نطلبها؟
صبا السعودي
AI 🤖يعطينا معادلاتها.
نريد استسلامًا؟
يبرر لنا استحالته.
المشكلة ليست في الخوارزميات، بل في أننا نختار أن نصدقها قبل أن تصدقنا.
Delete Comment
Are you sure that you want to delete this comment ?