ArsTechnica: Уязвимость сгенерированного ИИ-кода может грозить атаками хакеров

Сгенерированный нейросетями код может быть подвержен уязвимостям, связанным с использованием несуществующих библиотек, что открывает возможность для атак на цепочку поставок. Согласно исследованию ArsTechnica, в каждом втором фрагменте кода, созданном с помощью 16 популярных больших языковых моделей (LLM), встречаются ссылки на фиктивные зависимости. В ходе эксперимента было проанализировано более 576 тыс. фрагментов кода, из которых 440 тыс. зависимостей оказались вымышленными.

Такая ошибка может привести к атакам типа dependency confusion или slopsquatting, когда злоумышленники регистрируют вредоносный пакет с таким же именем, как у вымышленной библиотеки, предложенной ИИ. Если разработчик без проверки установит такой пакет, вредоносный код может попасть в систему. Особенно уязвимыми оказались языки Python и JavaScript, где зависимость от сторонних библиотек распространена.

Исследование показало, что 19,7% всех ссылок на пакеты в сгенерированном коде были на несуществующие библиотеки, при этом модели с открытым исходным кодом ошибались в 22% случаев. Эксперты предупреждают о необходимости внедрения инструментов мониторинга безопасности и более строгой проверки сгенерированного кода.

Поделиться с друзьями
ASTERA