Специалисты Microsoft провели исследование, оценив риски безопасности, связанные с искусственным интеллектом, и опубликовали его на arXiv.
Они проанализировали более 100 инструментов генеративного ИИ и пришли к выводу, что ИИ никогда не будет полностью безопасным. Важно контролировать, на каких данных обучаются языковые модели, чтобы предотвращать ошибки.
Исследование показало, что большие языковые модели могут усиливать существующие риски и создавать новые.
Если такие модели обучаются на ошибочных или конфиденциальных данных, они могут распространять эту информацию среди пользователей. Потенциальный вред от ИИ, по мнению специалистов, трудно оценить.
Для повышения безопасности использования ИИ исследователи рекомендуют контролировать каждый этап обучения моделей.
Они подчеркивают, что человеческий фактор всегда будет ключевым в этом процессе и что для работы с ИИ необходимы экспертиза, культурная компетентность и эмоциональный интеллект.