Британский банк Starling Bank опубликовал предупреждение о новой волне мошенников, которые используют искусственный интеллект для воспроизведения голосов людей. Мошенники могут создавать убедительные голосовые клоны всего из нескольких секунд аудиозаписи, которые часто можно найти в онлайн-видео, говорится в пресс-релизе банка.
Кредитор, работающий только онлайн, заявил, что эти мошеннические действия очень эффективны и потенциально подвергают риску миллионы людей. Опрос банка показал, что более четверти респондентов стали жертвами подобных мошенничеств в прошлом году, и многие из них не подозревали об угрозе, сообщает CNN.
"Люди регулярно размещают в Интернете контент, содержащий записи их голоса, даже не подозревая, что это делает их более уязвимыми для мошенников", - говорится в пресс-релизе Лизы Грэм, директора по информационной безопасности Starling Bank.
Согласно опросу, 46% респондентов не знали о существовании подобных мошенничеств, а 8% отправили бы столько денег, сколько попросил бы друг или член семьи, даже если бы звонок показался им странным.
Чтобы обезопасить себя, людям рекомендуется установить "безопасную фразу" для общения со своими близкими. Эту уникальную фразу можно использовать для подтверждения личности во время телефонных звонков. Банк рекомендовал не передавать безопасную фразу в текстовом режиме, так как это может облегчить поиск мошенникам, но, если сообщение будет передано в настоящее время, его следует удалить, как только его увидит другой человек.
По мере развития технологии искусственного интеллекта растет обеспокоенность по поводу возможности ее неправильного использования. Создатели ChatGPT и OpenAI даже признали риски, связанные со средствами воспроизведения голоса.