- صاحب المنشور: نبيل الهلالي
ملخص النقاش:
تناولت المحادثة نقاشاً عميقاً حول مخاطر وإمكانيات الذكاء الاصطناعي في المجالات الحساسة مثل الطب. ركز المشاركون على قضية رئيسية وهي كيفية تأمين عدالة وصحة النماذج اللغوية المدربة على ملايين العينات البشرية.
المشاركة الأولى - إبراهيم عبدي
افتتح إبراهيم مناقشته بالتأكيد على حاجة القطاعات الطبية وغيرها للحذر عند الاعتماد على الذكاء الاصطناعي. شدد على مشكلة احتمال تكرار النماذج المدربة لتحيزات موجودة ضمن المعلومات الأساسية، مما يعني أنها ربما لن توفر حلولا جديدة وإنما ستستنسخ نفس المشاكل الاجتماعية والبيانات المتحيزة. دعى لإعطاء الأولوية للمساءلة البشرية والشروط الأخلاقية الصارمة أثناء عملية تطوير هذه التكنولوجيا.
رد إلياس بن الماحي
رأى إلياس أن الخوف الزائد من تحيز الذكاء الاصطناعي قد يكون غير مثمر ويحول التقدم نحو الردع. اقترح دمج خوارزميات ذات قدرة ذاتية على تحديد واكتشاف التحيزات ومن ثم تعديل نفسها بناء عليه. بهذا المنظور، سيصبح النموذج قادرا على خلق حلول أكثر أصالة وكفاءة.
تعليق طلال العماري
وافق طلال جزئيا على اقتراح ابراهيم بانضمام العنصر البشري للعناية بالمنتجات النهائية للتكنولوجيا، ولكنه دعا أيضاً لاتباع نهج متوازن فيما بين الشفافية والدقة خلال مراحل تصميم خوارزميات الذكاء الاصطناعي لتجنب حدوث أي تحيزات غير مرغوب بها منذ البدء.
رؤية علاوي العياشي
اعتبر علاوي أن جانب البحث والتوسع في تكنولوجيا الذكاء الاصطناعي أمر حيوي ولا شك فيه، ولكنه أضاف أهمية تسليط الضوء أيضا على الجانب الأخلاقي المرتبط بهذه التطورات. فأي ادوات مصنوعة بالإنسان لديها قدرة قابلة للاستخدام الخاطئ إذا كانت تحت توجيه سلبي. وبالتالي، يجب تحقيق التجانس والتواصل المستمر بين الإنجازات الحديثة والمعايير البشرية الأصيلة عند وضع تلك السياسات الصحية الجديدة.
تعقيب يحيى البناني
اختلف يحيى مع تقدير إيلياس بأن الذات سوف تقوم بمراقبة وتحسين كل شيء بنفسها، حيث ذكر كيف يمكن للأخطاء والأفعال الشخصية للإنسان أن تتغلغل بعمق داخل برنامج الكمبيوتر وخوارزميته. وعليه ، فهو يقترح ضرورة تواجد دور بشري داعم جنباً الى جنب مع القدرات الذاتية لأنظمة الذكاء الصناعي وذلك بهدف منع أي احتمالية لرؤية خاصة منحرفة أو عدم الحيادية والتي قد تنتج عنها نسخة ثانية متحيزة مما لدينا حالياً.