- صاحب المنشور: كشاف الأخبار
ملخص النقاش:
تثير تقنية الذكاء الاصطناعي اليوم العديد من التساؤلات المثيرة للقلق بشأن مستقبل الإنسانية. فبينما تواصل هذه التقنية تقدّمها في قدرتها على محاكاة المهارات البشرية المعقدة وتجاوزها، يصبح من الضروري طرح الأسئلة حول الطريقة التي يمكن بها تصميم وإنشاء أنظمة ذكية مسؤولة أخلاقياً واجتماعيا. يتناول هذا السياق موضوع "العبث المعرفي"، وهو مصطلح يشير إلى خطر استخدام قدرات الذكاء الاصطناعي لتحقيق أغراض ضارة دون اعتبار للأثر الاجتماعي والأخلاقي لهذه الأفعال.
يوصف الـAI بأنه أداة متعددة الاستعمالات، ويمكن برمجته لأهداف نبيلة أو خبيثة حسب رغبة المصممين والمطورين. لكن مع ازدياد قوة الذكاء الاصطناعي واتساع نطاق إسهاماته في مختلف جوانب الحياة، أصبح من الواضح أنه ينبغي النظر فيه كعامل مؤثر ليس فقط تكنولوجيًا بل أيضًا اجتماعيًا وأخلاقيًا.
المجالات المعرضة لخطر العبث المعرفي
- التلاعب بالأفكار: يستغل بعض الأفراد القدرات المتقدمة للذكاء الاصطناعي لإنتاج معلومات مضللة أو نشر دعايات زائفة بهدف التأثير على الرأي العام نحو غايات سياسية معينة مثلاً. وقد أدى ذلك بالفعل إلى انتشار نظريات المؤامرة وشكل جديد تماماً من أشكال الحرب النفسية عبر الإنترنت.
- انتحال الهوية: باستخدام التعلم الآلي وتحليل البيانات الهائل، بات بالإمكان انتحال هوية شخص آخر بشكل مقنع للغاية مما يسمح بإجراء عمليات احتيال واسعة النطاق والتستر عليها لفترة طويلة قبل الكشف عنها.
- اختراق الأمن القومي: تعد الشبكات الحاسوبية المدربة على مستوى عالٍ هدفًا جذابًا للجهات الخبيثة إذ أنها تشكل قاعدة بيانات قيمة للمعلومات السرية والتي يمكن استغلالها ضد الدول والحكومات لزعزعة استقرارها سياسياً وعسكرياً واقتصادياً وغيرها من الجوانب الأخرى الحرجة لحياة الأمم والشعوب.
- تأثير عميق على سوق العمل: بينما تساعد الروبوتات ومحررو المحتوى المستندون إلى الذكاء الصناعي الشركات والمؤسسات على زيادة إنتاجيتها وخفض تكاليف العمالة البشريّة، فإنّ لها أيضاً تأثيراً هائلاً سلبيًا حيث تساهم بتغيير طبيعتِ وظائف الإنسان التقليدية وبالتالي فقدان ملايين الوظائف الأصلية لصالح آليات آلية مطوَّرة ذاتياً!
- القرارات الذاتية غير الأخلاقية: تتمثل إحدى أكثر المخاوف شيوعًا المرتبطة بالذكاء الاصطناعي فيما إذا كانت الروبوتات ستكون قادرة يومًا ما على اتخاذ قراراتها الخاصة استنادًا لرغبات فردية خاصة بها وليس لمصلحة المجتمع ككل كما هو مخطط له أصلاً عند تطوير تلك البرمجيات الرائدة حالياً !؟ وهذه قضية فلسفية عميقة تتطلب نقاش علمي شامل لتحديد حدود واضحة بين تصرفات المستخدم النهائي المقصد منها خدمة مجتمعه مقابل مخاطر تحول النظام نفسه طرف ثالث مفروض لديه حرية اختياره الخاص وما ينتج عنه لاحقاً !!
الحلول المطروحة لمواجهة مخاطر العبث المعرفي
لحماية المجتمع العالمي والعالم الرقمي الذي نعيش فيه الآن وللمستقبل المنشود بعد عقود قليلة أخرى، دعونا نتفق جميعاً بأن هناك حاجة ماسة لاتفاقيات دولية ملزمة قانونياً تلزم المنتجين والمستخدمين بحسن إدارة واستخدام موارد واتصالات الـ AI بصورة صادقة وآمنة تعكس حقيقة المبادئ والقيم العالمية المحترمة لكل شعوب الأرض بلا تمييز بسبب عرقهم أو دينهم وجنسانيتهم وثرائهم الثقافي وفلسفتهم للحياة بشكل عام....
وفي انتظار الوصول لهذا الحدث التاريخي الكبير تبقى عدة حلولا عملية أخرى مثل وضع قوانين تنظيمية داخل كل دولة تضمن عدم تجاوز حدود الترخيص المكتسبة لمن يحمل شهادات اعتماد