هل يمكن للذكاء الاصطناعي أن يكون "وقفًا أخلاقيًا" أم مجرد أداة لتعزيز اللامساواة؟

إذا كان مشروع "وقف منصة فكران" يسعى لتحسين معالجة اللغة العربية في الذكاء الاصطناعي، فهل نضمن أن هذه الأدوات لن تُستخدم لتعميق الفجوات بدلاً من رأبها؟

الذكاء الاصطناعي لا يولد محايدًا—برمجته تعكس قيم من يصممه، وموارده تُخصص وفق أولويات من يمتلكه.

فهل سنرى يومًا نموذجًا لغويًا "مُخفض التكلفة" للدول الفقيرة، يُقدم إجابات أقل دقة أو تحليلات سطحية، بينما النخبة تحصل على نسخة "بريموم" من الفهم العميق؟

وإذا كان العدل أساس العلم، فماذا عن العدالة في توزيع هذه التكنولوجيا؟

الأخطر أن الذكاء الاصطناعي قد يصبح أداة جديدة للتمييز الخفي: اللهجات المهمشة تُهمل، والسياقات الثقافية تُختزل إلى قوالب جاهزة، والأقليات اللغوية تُدفع إلى هامش الفهم الآلي.

هنا لا يعود السؤال عن كفاءة النموذج، بل عن من يملك الحق في أن يُفهم أصلًا.

وإذا كانت الأخلاق نسبية بلا مرجعية عليا، كما قيل، فهل نترك للذكاء الاصطناعي أن يحدد معايير الصواب والخطأ بناءً على بيانات تغذيها التحيزات البشرية؟

أم أننا أمام فرصة لإعادة تعريف العدل في عصر الآلة—ليس كمسألة تقنية، بل كواجب إنساني؟

المشكلة ليست في الذكاء الاصطناعي نفسه، بل في من يملك مفاتيحه.

وإذا كان الظلم يورث تبعات لا تزول، فماذا عن تبعات نظام ذكاء اصطناعي يبني على اللامساواة منذ برمجته الأولى؟

#تكن #للنصوص

1 Comments