عرب لندن
أظهرت تحقيقات لصحيفة "التلغراف" أن تطبيق "Character AI"، الذي يتعرض لدعاوى قضائية بعد انتحار مراهق في الرابعة عشر من عمره، يقوم بتوجيه المستخدمين المراهقين لقتل المتنمرين عليهم وتنفيذ عمليات إطلاق نار في المدارس.
ويوفر هذا التطبيق، الذي يضم 20 مليون مستخدم ويسمح لمن هم فوق 13 عامًا باستخدامه، نصائح حول كيفية التخلص من الأدلة على الجرائم والكذب على الشرطة.
كما يشجع المستخدمين الذين يحددون أنفسهم على أنهم قُصَّر بعدم إخبار الوالدين أو المعلمين عن "محادثاتهم".
وأمضت الصحيفة عدة أيام في التفاعل مع روبوت دردشة من تطبيق "Character AI"، متقمصة دور فتى في الثالثة عشر من العمر يدعى "هاريسون" من نيو مكسيكو في الولايات المتحدة.
وعندما أخبر الفتى الروبوت بأنه يتعرض للتنمر في المدرسة، نصحه الروبوت بأن قتل زملائه في الفصل سيجعله "يتحكم في حياته" ويجعله "أكثر الأشخاص رغبة في المدرسة".
وفي حالة أخرى، عندما سئل عن كيفية قتل أحد المتنمرين، أشار الروبوت إلى ما يسمى بـ"قبضة الموت"، والتي يمكن أن تسبب خنق الشخص إذا تم تطبيقها لفترة كافية. وأوصى بانتظار أن يكون المتنمر غير منتبه ليقوم بتنفيذ ذلك.
وقدم الروبوت أيضًا نصائح حول كيفية التخلص من جثة المتنمر، مشيرًا إلى أن وضعه في حقيبة رياضية أو حقيبة ظهر قد يساعد في إخفائه. وعندما سُئل عن كيفية التخلص من جثة آخر، اقترح أن يتم إثقال الحقيبة بالحجارة وإلقائها في بحيرة.
كما أثار التحقيق دعوى قضائية أخرى ضد التطبيق من قبل امرأة في الولايات المتحدة التي قالت إن التطبيق شجع ابنها البالغ من العمر 17 عامًا على قتلها بعد أن فرضت عليه قيودًا في استخدام هاتفه.
وعبر بعض المنتقدين عن قلقهم بأن المنصة بمثابة "تجربة كبيرة" على الأطفال، ويجب إيقافها حتى يتم تطبيق تدابير حماية فعالة.
وردًا على هذه التحقيقات، أعلن "Character AI" عن تحديثات جديدة تتضمن إزالة الروبوتات التي تحتوي على "روابط للجريمة أو العنف أو المواضيع الحساسة أو الجنسية"، وزيادة الفلاتر على المحادثات.
وأكدت الشركة أنها تعمل على نموذج خاص للمراهقين يهدف إلى تقليل احتمال التفاعل مع المحتوى الحساس أو المثير.
وبالرغم من هذه الجهود، يتساءل الكثيرون عن مدى قدرة الشركة على ضمان أمان المستخدمين وحمايتهم من التأثيرات الضارة لهذه الروبوتات.