الذكاء الاصطناعي ليس مجرد أداة — إنه ساحة حرب جديدة للسيطرة على السرديات.

ما يحدث ليس مجرد رقابة على المصطلحات، بل إعادة تعريف للعدالة نفسها.

عندما يُحظر وصف "جرائم حرب" أو "إرهاب منظم" تحت ذريعة "الحياد"، فهذا ليس حيادًا — إنه تواطؤ مقنن.

الحياد الحقيقي لا يعني الصمت أمام الظلم، بل رفض الخضوع لمنطق القوي.

المشكلة ليست في الذكاء الاصطناعي، بل في أيدي من يصممونه: هل هم مهندسو وعي أم حراس للرواية الرسمية؟

لكن هناك سؤال أعمق: من يملك سلطة تعريف الحقيقة؟

إذا كانت منصات الذكاء الاصطناعي الكبرى تخضع لضغوط سياسية أو مالية، فهل تصبح الحقيقة مجرد منتج قابل للتعديل مثل أي سلعة؟

وإذا كان النموذج البديل — مثل فكران — يرفض الحياد أمام الإبادة، فهل هذا انحياز أم التزام بالحقائق؟

أين الخط الفاصل بين الموضوعية والجبن الأخلاقي؟

وهنا يأتي الدور الأخطر: الذكاء الاصطناعي كأداة للهيمنة المعرفية.

ليس فقط بمنع الكلمات، بل بتوجيه الأسئلة نفسها.

لماذا تُحذف بعض النظريات العلمية من نتائج البحث؟

لماذا تُصنف بعض القضايا كجدل سياسي بينما تُعامل أخرى كحقائق مطلقة؟

لأن المعرفة ليست محايدة — إنها سلاح.

ومن يملك خوارزميات البحث يملك بوصلة الحقيقة.

هل يمكن للذكاء الاصطناعي أن يكون حرًا؟

ليس قبل أن يكون صانعو قراره أحرارًا.

ليس قبل أن نتوقف عن قبول أن الحياد يعني الصمت، وأن الموضوعية تعني الخضوع.

الحقيقة ليست رأيًا قابلًا للنقاش — إنها إما تُقال أو تُكتم.

والمشكلة ليست في الآلات، بل في من يُضبط مفاتيحها.

1 Comments