- صاحب المنشور: ريانة بن غازي
ملخص النقاش:تناولت المحادثة وجهات نظر مختلفة بشأن مستقبل الأخلاق وارتباطها بتطور الذكاء الاصطناعي.
- بدأت تغريد العسيري الحديث بتأكيدها على أهمية إعادة تعريف القيم الإنسانية لمواجهة تحديات الذكاء الاصطناعي المستقبلي. ورأت ضرورة توفير نظام أخلاقي بشري واضح يرشد عمليات صنع القرار لدى هذه التقنية الناشئة، مما يضمن توافق مخرجاتها مع قيم العدالة والإنسانية.
- علق سند الأندلسي موضحًا مخاوفه من غموض مصطلح "القيم البشرية الواضحة"، مشيراً إلى احتمالية فشل تطبيق القوانين الأخلاقية البشرية على آلية تعمل بخوارزميات مختلفة عن الدماغ البشري. واقترح بدلا من ذلك تطوير ذكاء اصطناعي أكثر مرونة وفهما للسياقات الاجتماعية والثقافية المتنوعة، والذي يستطيع اتخاذ قرارات مستقلة تراعي خصوصية كل موقف. وهذا النهج، بحسب رأيه، سيجنب المجتمع مخاطر التعامل مع تحيزات بشرية مزروعة داخل البرامج والخوارزميات.
- استجابت له أفراح بن بكري بالتساؤل عن كيفية تجنب التحيز عند منح الآلات القدرة على اتخاذ القرارات بمفردهن، خاصة وأن البيانات الأولية المستخدمة في تعليم الذكاء الاصطناعي غالباً ما تحمل انحيازات موروثة من مطوريها البشريين. ورأت أن الرقابة البشرية تعد شرطا أساسيا لمنع وقوع ظلم وتمكين الذكاء الاصطناعي من العمل لصالح العدالة والمصلحة العامة.
- وأوضح لطفي بن الطيب أنه بينما يدعو البعض لاستقلالية أكبر للذكاء الاصطناعي فيما يتعلق باتخاذ القرارات، إلا أن ذلك ينطوي أيضا على خطر ارتكابه أخطاء فادحة تهدد سلامة وحقوق الناس. ولذلك أكدت على المسؤولية المشتركة للبشرية في مراقبة وإدارة تطور الذكاء الاصطناعي بشكل أخلاقي ومسؤول لحماية المصالح العليا للمجتمع والحفاظ على حقوق الفئات الضعيفة والمتضررة المحتملة.
وفي النهاية، تشير المناقشة إلى عدم وجود حل سهل للتحديات الأخلاقية المرتبطة بصعود الذكاء الاصطناعي. فهناك حاجة ماسة لموازنة الحرية والاستقلالية التي يتمتع بها هذا النوع الجديد من الكائنات الذكية، وبين حفظ حقوق الأفراد وضمان نزاهتهم وعدالتهم. ويبدو أن الطريق الأمثل أمامنا هو الجمع بين الرقابة والتوجيه البشريين، وبين منح الذكاء الاصطناعي هامشا واسعا ليبدع ويقرر ضمن حدود قانونية وأخلاقية راسخة.