ИИ-стартапы OpenAI и Anthropic подписали соглашения с правительством Соединенных Штатов об исследованиях, тестировании и оценке своих моделей искусственного интеллекта, сообщил в четверг Институт безопасности искусственного интеллекта США.

Первое в своем роде соглашение было заключено в то время, когда компании сталкиваются с пристальным вниманием регулирующих органов к безопасному и этичному использованию технологий искусственного интеллекта.

На этой неделе законодатели Калифорнии намерены проголосовать за законопроект, который в целом регулирует разработку и внедрение искусственного интеллекта в штате.

"Безопасный и заслуживающий доверия искусственный интеллект имеет решающее значение для положительного воздействия технологии. Наше сотрудничество с Институтом безопасности искусственного интеллекта США использует их обширный опыт для тщательного тестирования наших моделей перед их повсеместным внедрением", - сказал Джек Кларк, соучредитель и руководитель отдела политики компании Anthropic, поддерживаемой Amazon и Alphabet.

В соответствии с соглашениями, Институт безопасности искусственного интеллекта США получит доступ к основным новым моделям OpenAI и Anthropic до и после их публичного выпуска.

Соглашения также позволят проводить совместные исследования для оценки возможностей моделей искусственного интеллекта и связанных с ними рисков.

"Мы считаем, что институт призван сыграть решающую роль в определении лидерства США в ответственном развитии искусственного интеллекта, и надеемся, что наша совместная работа создаст основу, на которую сможет опираться остальной мир", - сказал Джейсон Квон, директор по стратегии в компании OpenAI, производящей чаты.

"Эти соглашения - только начало, но они являются важной вехой в нашей работе по ответственному управлению будущим ИИ", - сказала Элизабет Келли, директор американского института безопасности ИИ.

Институт, входящий в состав Национального института стандартов и технологий (NIST) Министерства торговли США, также будет сотрудничать с британским институтом безопасности искусственного интеллекта и предоставлять компаниям информацию о возможных мерах по повышению безопасности.

Институт безопасности искусственного интеллекта США был создан в прошлом году в рамках исполнительного распоряжения администрации президента Джо Байдена для оценки известных и возникающих рисков, связанных с моделями искусственного интеллекта.

(Этот сюжет не редактировался сотрудниками NDTV и автоматически сгенерирован из синдицированной ленты.)