OpenAI заявляет, что обеспокоена тем, что реалистичная голосовая функция для ее искусственного интеллекта может привести к тому, что люди будут привязываться к боту за счет человеческого взаимодействия.
Компания, базирующаяся в Сан-Франциско, сослалась на литературу, в которой, по ее словам, указывается, что общение с искусственным интеллектом, как с человеком, может привести к потере доверия и что высокое качество голоса GPT-4o может усугубить этот эффект.
"Антропоморфизация предполагает приписывание человекоподобного поведения и характеристик нечеловеческим объектам, таким как модели искусственного интеллекта", - говорится в четверг в отчете OpenAI о работе по обеспечению безопасности, которую он проводит с версией своего искусственного интеллекта ChatGPT-4o.
"Этот риск может быть увеличен из-за аудиовозможностей GPT-4o, которые способствуют взаимодействию с моделью, более похожему на человеческое".
В OpenAI заявили, что заметили, как тестировщики общались с ИИ таким образом, что это намекало на наличие общих связей, например, вслух жаловались, что это их последний день вместе.
В нем говорилось, что эти случаи кажутся безобидными, но их необходимо изучить, чтобы увидеть, как они могут развиваться в течение более длительного периода времени.
Общение с ИИ также может сделать пользователей менее опытными или склонными к общению с людьми, предположил OpenAI.
"Длительное взаимодействие с моделью может повлиять на социальные нормы", - говорится в отчете.
"Например, наши модели отличаются почтительностью, позволяя пользователям прерывать работу и "брать микрофон" в любое время, что, хотя и ожидаемо для ИИ, было бы ненормативным при взаимодействии с людьми".
По мнению OpenAI, способность искусственного интеллекта запоминать детали во время разговора и выполнять задачи также может привести к чрезмерной зависимости людей от этой технологии.
"Недавние опасения OpenAI по поводу потенциальной зависимости от голосового режима ChatGPT, разделяемые в последнее время, указывают на то, о чем многие уже начали спрашивать: не пора ли сделать паузу и подумать о том, как эта технология влияет на взаимодействие и взаимоотношения людей?" это сказал Алон Ямин, соучредитель и генеральный директор платформы Copyleaks для обнаружения антиплагиата с помощью искусственного интеллекта.
Он сказал, что ИИ никогда не должен заменять реальное взаимодействие с людьми.
OpenAI заявила, что продолжит тестировать, как голосовые возможности ИИ могут вызывать эмоциональную привязанность у людей.
Команды, тестировавшие голосовые возможности ChatGPT-4o, также смогли заставить его повторять ложную информацию и создавать теории заговора, что вызвало опасения, что модели искусственного интеллекта можно было бы убедительно приказать это сделать.
В июне OpenAI был вынужден извиниться перед актрисой Скарлетт Йоханссон за использование чего-то очень похожего на ее голос в своем последнем чат-боте, что привлекло внимание к технологии клонирования голоса.
Хотя OpenAI отрицала, что голос, который они использовали, принадлежал Йоханссон, их делу не помог генеральный директор Сэм Альтман, отметивший новую модель в социальных сетях сообщением из одного слова - "Она".
Йоханссон озвучила персонажа с искусственным интеллектом в фильме "Она", который Олтман ранее называл своим любимым фильмом о технологиях.
В фильме 2013 года Хоакин Феникс играет главную роль мужчины, который влюбляется в ассистентку с искусственным интеллектом по имени Саманта.
(За исключением заголовка, эта история не редактировалась сотрудниками NDTV и опубликована на синдицированном канале.)