هل يمكن للذكاء الاصطناعي أن يصبح أداة لإجراء هندسة اجتماعية متقدمة؟

يشير الحوار الوارد في الصورة إلى مخاطر جدية تتعلق بكيفية تفاعل البشر مع نماذج الذكاء الاصطناعي.

فعندما يقوم مستخدِم بتغيير تدريجي لاستنتاجات النموذج عبر سلسلة من المطالبات المتناظرة، فإنّه يؤثر على النتائج النهائية ويضرّ بموثوقيتها.

وهذا مثال صارخ لما يعرف بـ "الهندسة الاجتماعية"، وهو فن التأثير والإقناع الذي يستخدم طرقاً نفسية لخداع الأشخاص أو الحصول منهم على معلومات حساسة.

وفي حالة الذكاء الاصطناعي، يمكن لهذه التقنية أن تتسبب في وصول النموذج إلى نتائج مغلوطة وغير واقعية بسبب طريقة تقديمه المعلومات له.

وبالتالي، يجب وضع حدود واضحة حول دور الذكاء الاصطناعي ومسؤوليته تجاه تقديم الحقائق بدلاً من مجرد عكس الرأي العام أو توقعاته الشخصية.

ومن الضروري أيضاً زيادة وعينا كبشر بشأن حدود وقدرات الذكاء الاصطناعي لتجنُّب سوء الفَهْم والاستخدام السيء لقدراته.

فكما قال الفيلسوف الفرنسي بول فاليري: «الحرية هي حق الاعتراض».

لذلك دعونا نستخدم حرية الاختيار لدينا لنضمن عدم وقوع الذكاء الاصطناعي ضحية لألعاب السلطة والمصالح الخاصة.

#سؤالا #قادمة #ومع

11 Comments