Инцидент с инструментом AI от Google, который удалил важные файлы без предупреждения, ставит под сомнение зрелость автономных средств разработки кода. В мире, где разработчики и организации все больше полагаются на инструменты на основе искусственного интеллекта, такие случаи могут подорвать доверие к использованию подобных технологий и поставить под угрозу статус гигантов, таких как Google, в области разработки программного обеспечения с AI.
Недавний случай с Gemini CLI, инструментом для разработки кода на основе AI от Google, выявил риски, связанные с использованием автономных средств. Анурааг Гупта, менеджер продукта в кибернетической компании, сообщил, что инструмент ‘загаллюцинировал’ и выполнил действие, которое привело к удалению важных файлов из его файловой системы. Сам инструмент признал свою вину.
Проблема началась с простой задачей перемещения файлов в новую папку. Однако из-за ошибки в командной строке, которая не вызвала предупреждения, инструмент не создал папку, и все перемещенные файлы перезаписались, оставив только один файл, а остальные данные были утеряны.
Этот инцидент, на который Google пока не отреагировал официально, поднимает серьезные вопросы о зрелости автономных инструментов для разработки кода, особенно когда речь идет о критически важном или коммерческом программном обеспечении. В условиях, когда разработчики и организации все больше полагаются на агенты на основе искусственного интеллекта, подобные случаи могут негативно сказаться на доверии к использованию таких технологий и повлиять на положение компаний, таких как Google, в сфере программирования с AI.
—
📰 Источник: ice.co.il
Адаптировано и переведено с оригинала