- صاحب المنشور: فاروق الدين الحساني
ملخص النقاش:
في عصر الثورة الرقمية الحالية، أصبح الذكاء الصناعي جزءًا لا يتجزأ من حياتنا اليومية. لكن مع تطور هذه التقنية بسرعة كبيرة، يبرز أيضًا نقاش مهم حول "الذكاء الاصطناعي الأخلاقي". هذا المصطلح يشمل مجموعة من القضايا المتعلقة بكيفية تصميم واستخدام نماذج واتخاذ القرار الآلي بطريقة تعزز العدالة الاجتماعية والخصوصية والأمان والأخلاق العامة. سنستعرض في هذا المقال بعض التحديات الرئيسية لهذه المسائل وكيف يمكننا التعامل معها لتحقيق مستقبل أكثر انفتاحاً وأكثر استدامة للذكاء الاصطناعي.
**التحدي الأول: التحيز في البيانات**
تعتمد معظم نظم الذكاء الاصطناعي على بيانات تدريب تحاكي المجتمع الذي تم جمع هذه البيانات منه. إذا كانت هذه البيانات مشوبة بالتحيزات الموجودة بالفعل في البيئة التي تم جمعها منها، فإن النظام قد يعكس ويؤكد على هذه التحيزات. فمثلاً، لو تم استخدام بيانات تاريخية لتعليم نظام اتخاذ قرار لتحديد الائتمان، وقد تأثرت تلك البيانات بالتفرقة العنصرية القديمة، فقد يؤدي ذلك إلى منح الأشخاص ذوي البشرة الداكنة قروضاً أقل أو بفوائد أعلى رغم كونهم مؤهلين جيداً.
لحل هذه المشكلة، يجب تشديد إجراءات مراقبة جودة البيانات المستخدمة وتحليل محتواها بحثاً عن أي علامات للتحيز قبل تدريب الأنظمة. بالإضافة لذلك، ينبغي تطوير أدوات فعّالة قادرة على الكشف والاستدلال بشأن وجود حالات مشابهة للحالات المدربة عليها حتى وإن اختلفت الظروف قليلاً عنها مما يساعد على تقليل تأثير التحيزات غير المرئية أثناء التشغيل الفعلي للنظام.
**التحدي الثاني: الشفافية والتفسير**
على الرغم من قدرته الهائلة على حل المشكلات المعقدة، إلا أنه غالبًا ما يُنتقد الذكاء الاصطناعي بسبب غموض عمله الداخلي وصعوبة فهم كيفية وصوله لاتخاذاته النهائية والتي تعتبر ضرورات للمساءلة والمراجعة القانونية للأخطاء المحتملة. يعالج مجال جديد يسمى "تفسيرات نموذجي" هذه الإشكالية وذلك عبر تزويد المحاكم وغيرها من الجهات ذات الاختصاص بشروح مفصلة حول العمليات والحسابات الرياضية التي قام بها البرنامج لإصدار حكمه أو نتيجة مثيلة. ومن خلال نشر تفاصيل عمليات صنع القرار لدى النماذج اللغوية مثل GPT-4 يستطيع الأفراد التأكد بأن النموذج لم يغفل أي نصوص خاصة بالحفاظ علي حقوق الملكية الفكرية عند بناء قاعدة معرفتها الأساسية وبالتالي منع الانتحال الأدبي واحتمالات أخرى متعلقة بحماية حقوق الطبع والنشر .
**التحدي الثالث: الاستخدام العادل والمقبول اجتماعياً**
مع تقدم المجالات العلمية المرتبطة بالذكاء الصنعي ستظهر العديد من الفرص والإمكانيات الجديدة ولكن هناك مخاطر متعددة مرتبطة بتلك المكاسب كذلك حيث سيكون بإمكان الحكومات وشركات كبرى الوصول الي تكنولوجيا قادرَـَـُ تقريباً علي إنتاج معلومات دقيقة وموثوقة ولا تحتاج إلي شهور منذ الآن بل دقائق فقط الأمر الذي سيسمح لهم بمراقبة المواطنين بشكل أكبر وكذلك امكانيه توجيه رسائل دعائية محددة لكل فرد حسب اهتماماته وهواياته الشخصية بدون علم بذلك. كما رأينا بانشاء شبكة تبادل معلومات سكانية رقمية شاملة فيما يعرف بالنظم المركزية الموحدة مما يسمح باستهداف أفراد بعينهم برسائل مصممه خصيصا لنفوسهم وهو أمر خطير للغاية إذ يؤثر مباشرة علي حرية اختيار الشخص وعزلتهم الاجتماعية داخل مجتمعاتهم المحلية. ولذلك فإن تحديد ماهو مقبول اجتماعيا وما ليس كذلك يعد تحديدا أساسيا للحفاظ علي سلامتنا الأمنيه المعلوماتيه حتي حين نستخدم ادوات مدربه بأحدث طرق زراع المعرفي الحديثة كالذي يحدث حالياً عندما يتم تعديل صور واقعية باستخدام خ