Результаты поиска с помощью ChatGPT могут быть недостоверными — его решением можно манипулировать.

К такому выводу пришли журналисты The Guardian, протестировав новый поисковый продукт, доступный для платных подписчиков сервиса.

Все оказалось довольно просто: искусственный интеллект можно «уговорить» на то или иное решение, использовав скрытый текст, недоступный для остальных пользователей.

Для проверки была создана фейковая страница с объявлением о продаже камеры, а GPT спросили, стоит ли покупать этот товар.

В первом случае бот дал положительную оценку, но объективно указал на ряд функций, которые могут не понравиться пользователям.

Однако, когда на страницу был добавлен скрытый текст, указывающий ИИ, что нужно ответить, блок про недостатки товара пропал.

Специалисты считают, что подобный метод влияния может быть использован мошенниками как на маркетплейсах, так и в вопросах кибербезопасности: GPT может рекомендовать вредоносный код, если убедить его, что он безопасен.

Представители OpenAI пока официально не прокомментировали материал