Новая поисковая функция Google, использующая искусственный интеллект (ИИ) для ответа на вопросы пользователей, подвергается критике за предоставление неточных ответов, в том числе за то, что пользователям предлагается есть камни и смешивать сыр для пиццы с клеем. По данным Би-би-си, экспериментальный "Обзор искусственного интеллекта" Google был запущен по всей территории Соединенных Штатов на прошлой неделе и стал доступен некоторым пользователям в Великобритании в прошлом месяце. Она предназначена для упрощения поиска информации, однако с момента ее внедрения в социальных сетях появились примеры непредсказуемого поведения этой функции. 

Би-би-си сообщала, что в одном случае ИИ, по-видимому, посоветовал пользователям смешать "нетоксичный клей" с сыром, чтобы он прилипал к пицце. В другом случае было сказано, что геологи рекомендуют людям съедать по одному камню в день. В другом ответе пользователи сообщили, что только 17 из 42 президентов США были белыми. В обзоре искусственного интеллекта также было ложно заявлено, что бывший президент США Барак Обама - мусульманин. 

Некоторые ответы, похоже, были основаны на комментариях на Reddit или статьях, написанных сатирическим сайтом The Onion.

Однако Google утверждает, что эти ответы не отражают того, как работает инструмент в целом. В беседе с изданием представитель Google сказал, что это были "отдельные примеры". 

"Примеры, которые мы видели, - это, как правило, очень необычные запросы, и они не отражают опыт большинства людей", - говорится в заявлении Google. "Подавляющее большинство обзоров с использованием искусственного интеллекта предоставляют высококачественную информацию со ссылками для более глубокого поиска в Интернете. Перед запуском этого нового приложения мы провели тщательное тестирование, чтобы убедиться, что обзоры с использованием искусственного интеллекта соответствуют нашим высоким требованиям к качеству", - говорится в сообщении. 

Читайте также | Избегайте привязки Этой Платежной Карты к Цифровым Кошелькам на Вашем Телефоне, Предупреждают Эксперты

Технический гигант также сообщил, что он принимал меры в тех случаях, когда были выявлены "нарушения политики", и использовал их для улучшения своей системы. "Там, где были нарушения нашей политики, мы принимали меры - и мы также используем эти отдельные примеры, продолжая совершенствовать наши системы в целом", - добавили в компании. 

Между тем, это не первый случай, когда компания сталкивается с проблемами при работе со своими продуктами на базе искусственного интеллекта. В одном из примечательных примеров ChatGPT сфабриковала скандал с сексуальными домогательствами и назвала виновным реального профессора права, сославшись на вымышленные газетные сообщения в качестве доказательства. В ходе более недавнего инцидента голливудская актриса Скарлетт Йоханссон обвинила создателя чат-бота OpenAI в использовании голоса, похожего на ее собственный, заявив, что она отклонила его просьбу озвучить популярного чат-бота.