- صاحب المنشور: عبد المطلب الدرقاوي
ملخص النقاش:
تزخر تقنيات الذكاء الاصطناعي بالإمكانات الهائلة لإحداث تحول ثوري في مجالات مختلفة مثل الرعاية الصحية والتعليم والنقل. ولكن مع هذه الإنجازات المذهلة تأتي مجموعة من التحديات الجديرة بالاهتمام والتي تتطلب اهتماما دقيقا وموضوعيا لتجنب العواقب غير المرغوب بها.
تأثير الوظائف على البشر: فقدان فرص العمل بسبب الروبوتات والأدوات المدعمة بالذكاء الاصطناعي
انتشار استخدام الذكاء الاصطناعي أدى إلى تغييرات جذرية في سوق العمل العالمي. حيث تقوم آلات ذكية وأدوات مدعومة بتقنيات الذكاء الاصطناعي بأداء وظائف كانت محصورة بين يدين بشرية سابقاً. على سبيل المثال، يمكن لروبوتات المصانع اليوم تجميع قطع السيارات بسرعة ودقة أكبر بكثير مقارنة بعامل بشري. لكن هذا الربط بين خفض تكاليف العمالة وإنتاج أعلى قد يؤدي أيضا لفقدان العديد من الأشخاص لوظائفهم التقليدية. فالخوف المتزايد بشأن مستقبل العمل يجعل ضرورة وجود نظام دعم اجتماعي قوي أمر حاسم لتسهيل الانتقال نحو مهن جديدة تتطلب معرفة متخصصة في مجال الذكاء الاصطناعي نفسه أو مساندته ضمن بيئة عمل مشتركة تضم كلًا من الإنسان وآلية صنع القرار الذاتي.
المساواة في التعلم الآلي وتحيزات البيانات
تعتمد الخوارزميات الخاصة بالتعلّم الآلي - وهي المحرك الأساسي للعديد من حلول الذكاء الاصطناعي المعاصرة - على مجموعات بيانات تدريب معروف عنها أنها تعكس التحيزات الاجتماعية والثقافية للأمم التي تم جمعها منها أصلا . وهذا يعني أنه حتى وإن لم تكن نوايا مطور البرمجيات سيئة بطبيعتها إلا أنه ربما يتم تصميم منتج مبني علي أساس نماذج تعتمد علی مجموعه بيانات مليئه بالنسب المئويه الصغيره للمجموعات الأكثر ضعفاً داخل مجتمع معین ممايؤدي الی تشكيل رؤیة منحازہ حول تلك الفئات وبالتالي فإن ذلك ينتج عنه قرارات اتخاذ غير عادله تجاه هذه الشرائح السكانية الضعيفة بالمقارنه مع الآخرين أفضل حاله . لذلك فإنه يتعين إجراء مراجعة دورية لهذه الحالات إن وجدت وذلك بهدف التأكد باستمرار عدم إنتاج أي نتائج متحيزة ضد الأقليات سواء كانوا جنسياً أم دينياً، وغيرها الكثير من اعتبارات أخرى مهمة للغاية وضمان تطبيق سياسات تصحيح الانحياز عند التدريب الأولي وثبت الاختبار بعد اكتماله أيضاً.
القضايا القانونية والأخلاقيةEthics and Legal IssuesAround AI Technologies
كما تلقي قضية المسؤولية مسؤوليتها أيضًا بثقلها الكبير فوق كاهل المجتمع العلمي فيما يخص تحديد الجهة المستهدفة قانونيًا عقب ارتكاب خطأ ناتجا بسبب أحد الأنظمة المعتمدة علِي الذكاء الصناعي؛ هل هو مصمم البرنامج؟ المبرمج نفسه؟ صاحب الشركة المنتجة له؟ أم النظام Automaton بنفسه ؟ وما هي المخاطر المحتملة الناجمةعن الاعتماد الزائدعلي الذكاء الاصطناعيمع غياب ضوابط اخلاقية رادع ومراقبة فعالة؟ وكمثال منطبق هنا : قرار شركة Tesla الشهير بإطلاق خاصية التشغيل مؤقتًا للقيادة الذاتية الكاملة رغم المطالب العديدة بعدم القيام بذلك ريثمايتم الوصول لحالة استقرار كاملة للنظام الأمني لديهم والذي يعد شرط اساسي قبل تقديم خدمات كهذه للمستهلكين مباشرة بدون رقابة مناسبية أثناء فترة التجربة الاولية للمستخدم النهائي. ويبدو ان هناك حاجة ملحة للإسراع باتجاه وضع تعريف جديد للمفهوم الخاص بالأفعال الاخلاقية المرتبطة ارتباط مباشر باستخدام التقنيات الحديثة كالذكاء الصُّنِاعي مثلاً ,حيث انه ليس هنالك توصيف واضح لحماية حقوق المستخدم حين تواجه رو