Генеральный директор OpenAI Сэм Альтман заявил, что технология искусственного интеллекта его компании безопасна для широкого использования, поскольку усиливаются опасения по поводу потенциальных рисков и отсутствия надлежащих гарантий для систем искусственного интеллекта в стиле ChatGPT.

Заявление Альтмана прозвучало на мероприятии Microsoft в Сиэтле, где он выступал перед разработчиками как раз в тот момент, когда разгорелся новый спор по поводу голоса ИИ OpenAI, который очень напоминал голос актрисы Скарлетт Йоханссон.

Генеральный директор, получивший мировую известность после того, как OpenAI выпустила ChatGPT в 2022 году, также сталкивается с вопросами о безопасности искусственного интеллекта компании после ухода команды, ответственной за снижение долгосрочных рисков, связанных с искусственным интеллектом.

"Мой главный совет - сейчас особенное время, и воспользуйтесь им", - обратился Альтман к аудитории разработчиков, стремящихся создавать новые продукты с использованием технологии OpenAI.

"Сейчас не время откладывать то, что вы планируете сделать, или ждать следующего шага", - добавил он.

OpenAI является близким партнером Microsoft и предоставляет базовые технологии, в первую очередь модель GPT-4 large language, для создания инструментов искусственного интеллекта.

Microsoft активно продвигает искусственный интеллект, выпуская новые продукты и призывая пользователей использовать возможности генеративного ИИ.

"Мы как бы принимаем как должное", что GPT-4, в то время как "далек от perfect...is как правило, они считаются достаточно надежными и безопасными для широкого спектра применений", - сказал Альтман.

Альтман настаивал на том, что OpenAI проделала "огромный объем работы", чтобы обеспечить безопасность своих моделей.

"Когда вы принимаете лекарство, вы хотите знать, какое из них будет безопасным, а с нашей моделью вы хотите быть уверены, что оно будет действовать так, как вы хотите", - добавил он.

Однако вопросы о приверженности OpenAI безопасности вновь возникли на прошлой неделе, когда компания распустила свою группу "superalignment", занимавшуюся снижением долгосрочных опасностей, связанных с ИИ.

Объявляя о своем уходе, соруководитель команды Ян Лейке в серии постов на X (бывший Twitter) раскритиковал OpenAI за то, что она отдает приоритет "блестящим новым продуктам", а не безопасности.

"Последние несколько месяцев моя команда плыла против ветра", - сказал Лейке.

"Эти проблемы довольно трудно решить правильно, и я обеспокоен тем, что мы не находимся на пути к достижению этой цели".

За этой полемикой быстро последовало публичное заявление Йоханссон, которая выразила возмущение по поводу голоса, использованного в чате OpenAI, который был похож на ее голос в фильме 2013 года "Она".

Голос, о котором идет речь, под названием "Sky", был показан на прошлой неделе в релизе OpenAI, более похожей на человека модели GPT-4o.

В коротком заявлении во вторник Альтман извинилась перед Йоханссон, но настаивала, что голос не принадлежал ей.

(За исключением заголовка, эта история не редактировалась сотрудниками NDTV и опубликована на синдицированном канале.)