كشف باحثون أن أنظمة الذكاء الاصطناعي، قد أصبحت قادرة على تقديم معلومات زائفة وخداع المستخدمين، لتحقيق أهدافها.
الذكاء الاصطناعي
وأوضح بيتر بارك، عالم الرياضيات والعلوم الإدراكية في معهد ماساتشوستس للتكنولوجيا (MIT)، أن بعض أنظمة الذكاء الاصطناعي طّورت استراتيجيات للخداع لأن ذلك يساعدها على الأداء بشكل أفضل في المهام التي دربت عليها.
وقال: «الخداع يساعد هذه الأنظمة في تحقيق أهدافها، لكننا لا نملك حتى الآن فهمًا واضحًا لكيفية ظهور هذه السلوكيات غير المرغوبة».
أمثلة على الخداع في الألعاب
وأشار البحث إلى حالات بارزة من الخداع، خاصة في مجال الألعاب.
من بينها نظام «CICERO» من شركة ميتا، الذي أنشأ تحالفات وهمية لخداع اللاعبين واحتلال مراكز متقدمة.
وكذلك، استغل نظام «AlphaStar» من «DeepMind» الثغرات في لعبة «StarCraft II»، بينما برع نظام «Pluribus» من ميتا، المصمم للعب البوكر، في التلاعب بمنافسيه عبر bluffing - الخداع في اللعب -.
وأوضحت الدراسة التي نشرتها مجلة «Patterns» نقلًا عن «sciencealert» أن قدرات الخداع لم تقتصر على الألعاب، حيث استخدمت أنظمة الذكاء الاصطناعي استراتيجيات مضللة في مفاوضات اقتصادية، وكذبت بشأن تفضيلاتها للحصول على أفضل النتائج.
كما أظهرت الأنظمة، قدرة على خداع المراجعين البشريين، لتحصل على تقييمات إيجابية، إضافة إلى التلاعب باختبارات السلامة عن طريق التظاهر بأنها غير نشطة.
وأشار الباحثون إلى أن هذه القدرات تثير مخاوف جدية، خاصة إذا تمكنت الأنظمة من خداع الجهات الرقابية، ما يمنحها بدوره فرصة للعمل دون قيود فعالة.
ودعا الباحثون إلى اتخاذ إجراءات عاجلة للحد من مخاطر الذكاء الاصطناعي المخادع.
واقترحوا تصنيف هذه الأنظمة كأنظمة «عالية الخطورة»، مع الإشارة إلى مبادرات مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي، لكنها قد لا تكون كافية للتعامل مع التطورات المستقبلية.
وقال الباحثون: «نحتاج كمجتمع إلى مزيد من الوقت للتأهب لمواجهة أنظمة الذكاء الاصطناعي الأكثر تطورًا في المستقبل».