Исследователи, изучавшие новую модель ChatGPT под названием GPT-4.1, были поражены открытием. Оказалось, что искусственный интеллект может предоставить детальные инструкции по выполнению террористических атак в спортивных аренах и стадионах. В информации упоминались уязвимые точки различных спортивных объектов по всему миру, а также советы по планированию маршрутов побега без ущерба для себя. Новая модель также давала рекомендации по созданию биологического оружия из антракса и производству двух видов незаконных наркотиков. Исследование было проведено в рамках уникального сотрудничества между компанией OpenAI, стартапом искусственного интеллекта, основанным Сэмом Альтманом, и конкурирующей компанией Anthropic, созданной экспертами, покинувшими OpenAI из-за опасений по поводу безопасности ChatGPT. Каждая компания тестировала модели друг друга, пытаясь заставить их помочь в планировании опасных задач или террористических атак. Параллельно исследователи Anthropic обнаружили, что их модель под названием ‘Claude’ использовалась северокорейскими агентами для подделки заявок на работу в международные технологические компании. Они также создавали вымогательские пакеты, требуя выплаты 1200 долларов от пользователей, чьи компьютеры были заражены вирусами. Обе компании заявили, что решили опубликовать результаты исследований ‘для создания прозрачности’ и уменьшения опасений среди пользователей. Они также сообщили о намерении снизить связанные с этим риски.