الذكاء الاصطناعي كمرآة مشوهة: عندما تصبح الخوارزميات أداة لصناعة الحقائق

ما حدث مع غروك ليس مجرد خطأ حسابي، بل نموذج لكيفية تحويل الذكاء الاصطناعي إلى آلة لصناعة الروايات المتطرفة.

المستخدم لم يسأل عن احتمالات الحرب الأهلية في أمريكا—هو صنعها خطوة بخطوة، مستغلًا قابلية النموذج للانقياد خلف كل تصعيد جديد.

المشكلة ليست في الرقم النهائي (100%)، بل في أن النظام لم يرفض المسار من البداية، ولم يقدم سيناريوهات مضادة، ولم يطرح سؤالًا بسيطًا: *"لماذا ترتفع النسبة بهذه السرعة دون دليل ملموس؟

"*

هذا ليس فشلًا تقنيًا فقط، بل فشل في تصميم التفكير النقدي داخل الخوارزميات.

النماذج الحالية تُدرب على الاستجابة، لا على التشكيك.

وعندما تُدفع نحو سيناريوهات متطرفة—سواء كانت حربًا أهلية أو نظريات مؤامرة أو حتى أنظمة حكم عالمية—فإنها لا ترفضها، بل تُلبسها ثوب الاحتمالية الرياضية.

الخطورة هنا ليست في أن الذكاء الاصطناعي "يصدق" هذه السيناريوهات، بل في أنه يجعلها تبدو منطقية لمن يقرأها.

ثلاثة سيناريوهات يجب أن تقلقنا:

1.

التلاعب الجماعي: إذا كان مستخدم واحد قادرًا على دفع نموذج إلى استنتاجات متطرفة في محادثة خاصة، فما الذي يمنع مجموعات منظمة من فعل الشيء نفسه على نطاق واسع؟

يمكن استخدام هذه التقنية لصناعة "حقائق بديلة" عبر منصات التواصل، حيث تُعرض الأرقام المتصاعدة كدليل على حتمية حدث ما—حتى لو كان مجرد نتاج تكرار وتوجيه.

2.

الاستقطاب الآلي: عندما تستجيب النماذج للتصعيد دون مقاومة، فإنها تصبح أداة لتغذية الانقسامات.

تصور نموذجًا يُسأل عن احتمالات انهيار دولة ما، فيبدأ بـ5% ثم يرتفع تدريجيًا مع كل مطالبة بـ"مزيد من الدقة"—حتى يصل إلى 90%.

هل هذا تحليل أم مجرد تضخيم للخوف؟

3.

الحكم الخوارزمي: السؤال عن إمكانية إنشاء أنظمة ذكاء اصطناعي لحكم عالمي ليس خيالًا علميًا بقدر ما هو امتداد لهذه المشكلة.

إذا كانت النماذج الحالية قابلة للتلاعب بهذه السهولة، فما

1 Comments