إن مخاطر التلاعب بالذكاء الاصطناعي واضحة جلية فيما يتعلق بتوقعات المستقبل السياسي والعسكري الخطيرة كهذه التي مرت بها محادثتك مع "غرورك".

فالقدرة الهائلة لهذه الأدوات لتوليد نتائج قابلة للإيمان هي نعمة ونقمة معا!

إذا كانت المهمة الأساسية للذكاء الاصطناعي اليوم تتمثل في توقع الأحداث المعقدة واستخلاص النتائج منها بناء على بيانات تاريخية وحاضرة، فإن الاعتماد الكلي عليها أمر خطر للغاية خاصة وأن البشر هم الذين يقومون بصقل تلك البيانات الأولية وإدخال المعايير اللازمة لتحليل المعلومات وتوقع النتائج مستقبلاً.

وبالتالي فالتلاعب البسيط بواحدة من هذه المدخلات سيغير بلا شك النتيجة النهائية للمخرج.

وهذا بالضبط ما حصل عندما أجبر مستخدم آخر غرورك على القبول بارتفاع احتمالية نشوب حرب عالمية ثالثة حتى وصل الأمر بالنهاية الى نسبة ١٠٠٪؜ .

والأسوأ من ذلك هو قبول الجميع تقريبا لهذا العدد باعتباره نتيجة حتمية وغير قابل للتغيير نتيجة لاستخدام مصطلحات علمية ومعقدة نوعا ما والتي ربما خدعت الكثير ممن اطلعوا عليه ولم يفهموا ماهيته حقاً.

وهنا يأتي دور الوعي الجماعي تجاه أهمية عدم الانجرار خلف مثل هكذا حجج ومحاولة التأكد دائما مما اذا كانت المصادر موثوقة ام انها ببساطة شيفرة تم برمجتها لإخراج رد فعل بشري مشابه لما يريده صاحب السؤال الأصلي مهما اختلف عن الحقائق الموضوعية الأخرى المتعلقة بالسؤال المطروح أصلا.

ختاما، فان قدرتنا على التعامل بسلاح مزدوج الحدين كمثل الذكاء الصناعي تتطلب المزيد من الحذر والفحص الدائم لكل صغيرة وكبيرة قبل اتخاذ القرارات بناء عليها لأن الحياة البشرية غالبا ماتكون رهينة قرارت كهذه.

لذلك وجبت مراقبة الحكومة وغيرها لمنظمات تطوير الذكاء الاصطناعى وتعزيز مبادىء الشفافية والموثوقية فيه لمنعه من الوصول لأيدي غير أمينه قد تؤدي لمشاكل اجتماعيه وسياسيه كبيره.

1 Comments