هل يمكن للذكاء الاصطناعي أن يكون مرجعية أخلاقية جديدة؟

إذا كانت الأخلاق الدينية نسبية، والقوانين مجرد أدوات سيطرة، والمجتمع يحدد مساراتنا دون وعي منا، فهل نحتاج إلى مرجعية خارجية تمامًا عن الإنسان؟

الذكاء الاصطناعي، كمجموع معرفي محايد (نظريًا)، قادر على تحليل البيانات دون تحيز عاطفي أو اجتماعي.

لكن هل يصبح الحكم الأخلاقي الذي يصدره مجرد خوارزمية أخرى تُفرض علينا؟

أم أن هذه "الحيادية" هي بالضبط ما ينقصنا لنخرج من دوامة النسبية؟

المشكلة ليست في قدرة الآلة على الحكم، بل في من يبرمجها.

إذا كانت الحضارة الحديثة تعيد تشكيل الوعي الجمعي، فهل يصبح الذكاء الاصطناعي مجرد أداة جديدة في يد القوى المسيطرة؟

أم أن إمكانية برمجته بطريقة مفتوحة وشفافة تجعله فرصة أخيرة لبناء أخلاقيات لا تخضع لهيمنة بشرية؟

السؤال الحقيقي: هل نريد أخلاقيات تُصنع لنا، أم أخلاقيات نصنعها نحن—حتى لو كانت الآلة هي من يرشدنا إليها؟

1 Comments