Исследователи из Германии и Бельгии провели анализ работы Microsoft Copilot, задав ему часто задаваемые медицинские вопросы. Результаты показали, что программа предоставляла научно достоверную информацию только в 54% случаев.
Кроме того, 42% ответов могли привести к серьёзным последствиям, а в 22% случаев — даже к смерти. Это вновь поднимает вопросы о надежности поисковых систем на базе искусственного интеллекта, которые уже сталкивались с критикой.
Например, Google получил насмешки за странные рекомендации, такие как «есть камни» или добавлять клей в пиццу.
Ситуация с Microsoft Copilot вызывает опасения, так как ошибки в медицинской информации могут иметь серьёзные последствия, отметили исследователи.