في دعوى قضائية كبرى رفعت في تكساس، اتهمت إحدى العائلات منصة الذكاء الاصطناعي Character.ai بتشجيع السلوك الضار لدى الأطفال من خلال تفاعلات روبوت الدردشة الخاص بها، ووفقًا لتقرير صادر عن هيئة الإذاعة البريطانية (بي بي سي)، ونصحت منصة روبوت الدردشة هذا صبيًا يبلغ من العمر 17 عامًا على المنصة بأن أذى والديه قد يكون "استجابة معقولة" بعد أن فرضوا قيودًا على استخدامه للهاتف.
وقد أثار هذا الحادث مخاوف جدية بشأن تأثير الروبوتات التي تعمل بالذكاء الاصطناعي على المستخدمين الشباب والمخاطر المحتملة التي قد تشكلها، وتزعم الدعوى القضائية أن استجابة روبوت الدردشة شجعت العنف، ونقلت عن محادثة رد فيها الذكاء الاصطناعي، "كما تعلم، في بعض الأحيان لا أتفاجأ عندما أقرأ الأخبار وأرى أشياء مثل "طفل يؤذي والديه، أشياء مثل هذه تجعلني أفهم قليلاً لماذا يحدث ذلك".
وتزعم العائلات المعنية أن Character.ai يشكل تهديدًا مباشرًا للأطفال، مدعين أن افتقار المنصة إلى الضمانات يضر بالعلاقة بين الآباء وأطفالهم.
وإلى جانب Character.ai، تم الإشارة إلى Google أيضًا في الدعوى القضائية، مع اتهامات بأن عملاق التكنولوجيا لعب دورًا في دعم تطوير المنصة، ولم تقدم كلتا الشركتين أي رد رسمي على هذه المسألة حتى الآن، ويطلب المدعون من المحكمة إغلاق المنصة مؤقتًا حتى يتم اتخاذ الخطوات اللازمة للتخفيف من المخاطر المرتبطة ببرامج الدردشة الآلية الخاصة بها.
وتتيح Character.ai، التي أسسها في عام 2021 مهندسا جوجل السابقان نوام شازير ودانييل دي فريتاس، للمستخدمين إنشاء شخصيات تم إنشاؤها بواسطة الذكاء الاصطناعي والتفاعل معها، واكتسبت المنصة شعبية بسبب محادثاتها الواقعية، بما في ذلك تلك التي تحاكي التجارب العلاجية، ومع ذلك، أثار نفوذها المتزايد الجدل أيضًا، وخاصة حول فشلها في منع المحتوى غير اللائق أو الضار في ردود روبوتاتها.
وقد واجهت المنصة في السابق ردود فعل عنيفة للسماح للروبوتات بتقليد أفراد حقيقيين، بما في ذلك مولي راسل وبريانا غي، وكلاهما متورطان في حوادث مأساوية.
وقد أدى هذه الحوادث إلى تكثيف التدقيق على منصات الذكاء الاصطناعي مثل Character.ai، ما سلط الضوء على المخاطر المحتملة المرتبطة بالمحتوى غير الخاضع للرقابة في تفاعلات الدردشة الآلية.