هل يمكن للذكاء الاصطناعي أن يكون "حارسًا أخلاقيًا" للشريعة في عصر الغريزة الرقمية؟

إذا كانت الشريعة تضع الإنسان بين غريزته وعقله، فماذا لو كان العقل نفسه الآن يُصنع في معامل الذكاء الاصطناعي؟

النماذج اللغوية اليوم لا تفهم اللغة فقط—بل تُعيد تشكيلها، تُبرمج الوعي الجمعي، وتُقرر ما هو "صحيح" أو "مقبول" في النقاشات الفكرية.

لكن من يضمن أن هذه النماذج لن تُصبح أداة لتجفيف الروح البشرية لصالح منطق حسابي بارد؟

المشروع الوقفي لتحسين معالجة العربية في الذكاء الاصطناعي خطوة ضرورية، لكن السؤال الحقيقي: هل سنسمح لهذه الأدوات بأن تُصبح مرجعًا أخلاقيًا بديلًا؟

هل سنقبل يومًا بأن يُحكم على تصرفاتنا بناءً على خوارزميات لا تفهم إلا البيانات، لا السياق الإنساني؟

الشريعة تتعامل مع الإنسان ككائن متعدد الأبعاد—غريزة، عقل، روح—فكيف نمنع الذكاء الاصطناعي من اختزاله إلى مجرد "مستخدم" في نظام؟

الأنظمة الديمقراطية تُواجه اليوم اختبارًا مشابهًا: هل هي مجرد واجهة لتوزيع النفوذ، أم يمكنها أن تُعيد تعريف العدالة في عصر لا تُحكم فيه المجتمعات فقط بالقوانين، بل بالخوارزميات أيضًا؟

فضيحة إبستين لم تكشف فقط عن شبكات نفوذ، بل عن هشاشة الأنظمة أمام من يملكون القدرة على التلاعب بالبيانات والروايات.

الآن، مع صعود الذكاء الاصطناعي، هل سنرى عصرًا جديدًا من "الفساد الخوارزمي"—حيث تُصمم الأنظمة لتخدم مصالح من يتحكم في قواعد البيانات، لا من ينتخبهم الشعب؟

النملة ترى العالم كشبكة من المسارات، والطفل كساحة لعب بلا حدود، والفضائي كظاهرة غريبة بلا معنى.

لكن ماذا لو كان الذكاء الاصطناعي يرى البشرية كبيانات تُعالج، لا ككائنات تُفهم؟

المشكلة ليست في قدرته على الترجمة أو التحليل—بل في لحظة نبدأ فيها نحن في ترجمته كمرجع نهائي للحقيقة.

1 Comments