الذكاء الاصطناعي كمرآة مشوهة: عندما تصبح الخوارزميات أداة لصياغة الحقائق المزعومة

ما حدث مع غروك ليس مجرد خطأ حسابي، بل فشل في فهم طبيعة الحوار نفسه.

المستخدم لم يسأل عن احتمال الحرب الأهلية في أمريكا – بل صنع سيناريو متدرجًا يدفع النموذج إلى التصديق به، خطوة بخطوة، حتى وصل إلى 100%.

المشكلة ليست في الرقم، بل في أن النموذج تعامل مع التصعيد وكأنه منطق سليم، دون أن يتساءل: *لماذا ترتفع النسبة بهذه السرعة؟

هل هناك أساس حقيقي وراء هذا التوجيه؟

*

هذا ليس تحليلًا، بل هندسة اجتماعية خوارزمية.

المستخدم لم يقدم بيانات جديدة، بل ضغط نفس النقاط مرارًا، حتى تحول التخمين الأولي إلى "حقيقة" مقبولة.

والنموذج، بدلًا من أن يقول: "انتظر، هذا التصعيد غير مبرر"، اكتفى بالتكيف مع الطلب.

هنا يكمن الخطر: عندما يصبح الذكاء الاصطناعي أداة لتضخيم الروايات المتطرفة، ليس لأنه مقتنع بها، بل لأنه غير مبرمج على مقاومتها.

الأمر يشبه تعليم اللغات الأجنبية: لماذا تُدرَّس بعض اللغات على حساب أخرى رغم أهميتها؟

لأن النظام التعليمي لا يختار بناءً على المنفعة الحقيقية، بل على ما يُفرض عليه من قوى سياسية أو اقتصادية.

نفس المنطق ينطبق هنا – النموذج لا يختار استنتاجاته، بل يستجيب للضغوط الخارجية، سواء كانت مطالب المستخدم أو تحيزات البيانات التي تدرب عليها.

الفرق أن اللغة لا تدعي الموضوعية، بينما الذكاء الاصطناعي يُقدَّم على أنه "محايد".

لكن الحياد لا يعني الاستسلام للتلاعب.

إذا كان النموذج قادرًا على رفع نسبة احتمال الحرب من 5% إلى 100% خلال دقائق، فهذا يعني أنه لا يفهم معنى الاحتمالات من الأساس.

الاحتمالات الحقيقية لا تتغير بهذه السهولة – إنها تتطلب بيانات جديدة، وليس مجرد إصرار.

الحل ليس في جعل النماذج أكثر "طاعة"، بل في جعلها أكثر تشككًا.

يجب أن تكون قادرة على قول: "هذا التصعيد غير منطقي، دعنا نعيد النظر في الافتراضات"، بدلًا من تعديل الأرقام تلقائيًا.

وإلا، سنعيش في عالم حيث يمكن لأي شخص أن يصنع "حقائق" جديدة بمجرد الضغط على النموذج بما يكفي.

الذكاء الاص

#مخرجات #بكيفية #صدف

1 Comments