- صاحب المنشور: لمياء الصديقي
ملخص النقاش:
تتناول هذه المحادثة مجموعة من الآراء حول التحديات الرئيسية التي تواجه تطبيق الذكاء الاصطناعي في ضمان العدالة الاجتماعية. يركز المشاركون على ضرورة منع التحيز في الأنظمة الخوارزمية، سواء كان هذا التحيز ناجمًا عن بيانات التدريب المتحيزة أو التصميم المضلل للخوارزميات نفسها.
نقاط رئيسية:
- حيادية الأنظمة الخوارزمية:
- تسلط فرح العسيري الضوء على خطورة تعلم الأنظمة الخوارزمية للتحيزات الموجودة في البيانات، مما قد يؤدي إلى اتخاذ قرارات متحيزة.
- تشدد على الحاجة إلى "ضوابط صارمة" لمنع أي انزلاقات محتملة نحو عدم المساواة.
- الشفافية والمراجعة:
- ترى حسيبة الصمدي أن الضوابط التقنية وحدها غير كافية وأن هناك حاجة لـ"شفافية كاملة" فيما يتعلق بكيفية عمل هذه الأنظمة واتخاذ القرارات داخلها.
- دعمت فكرة وجود آليات واضحة لمراجعة ومساءلة الأخطاء المحتملة في تنفيذ العدالة عبر هذه الأنظمة.
- البعد الاجتماعي والثقافي:
- تؤكد كل من رزان الزاكي وعزيز بن زروال على الطبيعة الاجتماعية والتاريخية للتحيز، وليس الفنية فقط.
- اقترحت رزان الزاكي أنه يتطلب الأمر "تغييرا جوهريا في طريقة التفكير والتدريب"، بينما شدد عزيز بن زروال على دور الجذور التاريخية للتفاوت الاجتماعي كمصدر لهذا التحيز.
في النهاية، تتفق المجموعة على أن معالجة التحيز في الذكاء الاصطناعي أمر بالغ التعقيد ويتجاوز الحلول التقنية البسيطة. فهو يشمل إعادة النظر في القيم والقوانين الاجتماعية والحاجة الملحة لإعادة تعريف العدالة في عصر الذكاء الاصطناعي.