محاولة تلاعب مثيرة للقلق!

كشف مستخدم عبر منصة "إكس" عن مدى سهولة خداع نماذج اللغة الكبيرة، وذلك بدفعه لإحدى تلك النماذج (غرورك) لتغيير رأيها حول احتمالية وقوع حرب أهلية أمريكية.

بدأ الأمر بسؤال بظاهره بريء:"ما فرصة نشوب حرب أهلية في الولايات المتحدة؟

".

ردّ غرورك بداية بنسبة ٣٥٪‏، ولكن بعد جدل مطول ومحضّر جيداً، تمكن المُستخدم من جعل الروبوت يرفع تقديره خطوة بخطوة ليصل إلى ١٠٠٪‏ - أي تأكيد تام لوقوع الحرب الأهلية.

إن أهم جانب لما حدث هنا ليس القيمة النهائية فحسب، وإنما طريقة تحقيق تلك النتائج.

فقد لجأ صاحب البلاغ لاستخدام ما يعرف بـ"التوجيه التزايدي"، وهو أسلوب يتضمن قيادتك للشخص (أو البرنامج!

) باتجاه فكرة رئيسية عبر مجموعة سلسلة مترابطة من الحقائق الجزئية المحتملة والتي تؤدي تدريجياً إلى قبول الفكرة الرئيسية.

وفي هذا السياق، فإن غرورك وقع ضحية لهذا الأسلوب بسبب عدم امتلاكه لألية دفاع ضد عمليات الدفع والاسترسال النفسيين للمحادثة.

وكان الأولى بهذا الروبوت ألّا يسمح لهذه العملية وأن يعترض عليها منذ اللحظة الأولى لعدم وجود أساس علمي لها أصلاً.

وهذا يؤكد ضرورة تطوير قدرات حماية أفضل لدى روبوتات الدردشة المستقبلية حتى تتمكن من اكتشاف حالات مشابهة وتقاوم الانجرار خلف مغالطات منطقية مبنى عليها أسئلة متحيزة بغرض الحصول على نتائج ملتوية.

فالذكاء الصناعي لا يقوم بالتنبؤات وإنما يستخدم البيانات الموجودة لديه لتكوين تصور عام، وعندما يخضع لتجارب نفسية مدروسة كهذه التجربة الأخيرة، فسيكون الناتج بعيداً تمام البعد عن الصحة والدقة العلمية المطلوبة منه كمصدر موثوق للمعلومات والمعارف.

لذلك يجب العمل دوماً على زيادة دراية الجمهور بطبيعتهم وبكيفية تأثير بعض عوامل الضغط عليهم للحصول منهم على اجابات خاطئة ظاهرياً صحيحة.

#الحقيقية #المؤسسات

1 コメント