OpenAI, компания, стоящая за ChatGPT, заявила в четверг, что за последние три месяца она пресекла пять тайных операций по оказанию влияния, целью которых было использование ее моделей искусственного интеллекта для мошеннических действий.

В сообщении в блоге OpenAI говорится, что нарушенные кампании были инициированы Россией, Китаем, Ираном и частной компанией, базирующейся в Израиле.

Злоумышленники пытались использовать мощные языковые модели OpenAI для таких задач, как создание комментариев, статей, профилей в социальных сетях и отладка кода для ботов и веб-сайтов.

Компания, возглавляемая генеральным директором Сэмом Альтманом, заявила, что эти операции ", по-видимому, не принесли существенной пользы от увеличения вовлеченности аудитории или охвата в результате использования наших услуг".

Такие компании, как OpenAI, находятся под пристальным вниманием из-за опасений, что такие приложения, как ChatGPT или генератор изображений Dall-E, могут генерировать обманчивый контент в течение нескольких секунд и в больших объемах.

Это вызывает особую озабоченность в связи с предстоящими крупными выборами по всему миру, а такие страны, как Россия, Китай и Иран, как известно, используют скрытые кампании в социальных сетях для нагнетания напряженности в преддверии дня голосования.

Одна из сорванных акций, получившая название "Плохая грамматика", была ранее не публиковавшейся российской кампанией, нацеленной на Украину, Молдову, страны Балтии и Соединенные Штаты.

В ней использовались модели и инструменты OpenAI для создания коротких политических комментариев на русском и английском языках в Telegram.

Хорошо известная российская операция "Двойник" использовала искусственный интеллект OpenAI для создания комментариев на таких платформах, как X, на таких языках, как английский, французский, немецкий, итальянский и польский.

OpenAI также уничтожил китайскую систему защиты от спама, которая использовала свои модели для изучения социальных сетей, создания многоязычных текстов и отладки кода для веб-сайтов, подобных ранее не публиковавшемуся revealscum.com.

Иранская группа "Международный союз виртуальных МЕДИА" была заблокирована за использование OpenAI для создания статей, заголовков и контента, размещенного на иранских государственных веб-сайтах.

Кроме того, OpenAI подорвал работу коммерческой израильской компании STOIC, которая, как оказалось, использовала ее модели для создания контента в Instagram, Facebook, Twitter и на аффилированных веб-сайтах.

Ранее на этой неделе владелец Facebook Meta также отметил эту кампанию.

Информация об операциях была размещена на таких платформах, как Twitter, Telegram, Facebook и Medium, "но ни одной из них не удалось привлечь значительную аудиторию", - говорится в сообщении OpenAI.

В своем отчете компания рассказала о таких тенденциях использования ИИ, как создание большого объема текста / изображений с меньшим количеством ошибок, смешивание ИИ и традиционного контента и имитация взаимодействия с помощью ответов ИИ.

OpenAI заявила, что сотрудничество, обмен разведданными и меры предосторожности, встроенные в ее модели, позволили избежать сбоев. 

(Этот сюжет не редактировался сотрудниками NDTV и автоматически сгенерирован из синдицированной ленты.)