Ты можешь доверять своим ушам? Мошенничество с голосовым ИИ потрясло США

Ты можешь доверять своим ушам? Мошенничество с голосовым ИИ потрясло США

Голос по телефону казался пугающе реальным – американская мать услышала, как ее дочь рыдает, прежде чем мужчина взял на себя ответственность, и потребовал выкуп. Но девушка была клоном ИИ, и похищение было поддельным.

Самая большая опасность искусственного интеллекта, говорят эксперты, заключается в его способности разрушить границы между реальностью и вымыслом, предоставлять киберпреступникам дешевую и эффективную технологию для распространения дезинформации.

В новом поколение мошенников, которые потрясли власти США, мошенники используют поразительно убедительные инструменты клонирования голоса ИИ, широко доступные в Интернете, чтобы украсть у людей, выдавая себя за членов семьи.

“Помоги мне, мама, пожалуйста, помоги мне”, – услышала Дженнифер ДеСтефано, мать из Аризоны, голос, говорящий на другом конце строки.

ДеСтефано была «на 100 процентов» убеждена, что это ее 15-летняя дочь в глубоком бедственном положении во время поездки на лыжах.

“Никогда не было вопроса о том, кто это? Это был полностью ее голос… так она плакала”, – сказал ДеСтефано местной телевизионной станции в апреле.

“Я ни на секунду не сомневался, что это она”.

Мошенник, который взял на себя звонок, который пришел с номера, незнакомого ДеСтефано, потребовал до 1 миллиона долларов.

уловка на основе искусственного интеллекта закончилась в течение нескольких минут, когда ДеСтефано установил контакт со своей дочерью. Но ужасающий случай, который в настоящее время находится под следствием полиции, подчеркнул потенциал киберпреступников злоупотреблять клонами ИИ.

– Мошенничество с бабушкой и дедушкой –

“Клонирование голоса ИИ, теперь почти неотличимо от человеческой речи, позволяет субъектам угроз, таким как мошенники, более эффективно извлекать информацию и средства от жертв”, – сказал AFP Васим Халед, исполнительный директор Blackbird.AI.

Простой поиск в Интернете дает широкий спектр приложений, многие из которых доступны бесплатно, для создания голосов ИИ с небольшой выборкой – иногда всего за несколько секунд – реального голоса человека, который может быть легко украден из контента, размещенного в Интернете.

“С небольшим звуковым образцом голосовой клон AI может использоваться для оставлять голосовые сообщения и голосовые сообщения. Его даже можно использовать в качестве смены голоса в прямом эфире при телефонных звонках”, – сказал Халед.

“Мунки могут использовать разные акценты, полы или даже имитировать речевые шаблоны близких. [Технология] позволяет создавать убедительные глубокие подделки”.

В глобальном опросе 7000 человек из девяти стран, включая Соединенные Штаты, каждый четвертый человек сказал, что испытал мошенничество с клонированием голоса ИИ или знает кого-то, кто это сделал.

Семьдесят процентов респондентов заявили, что не уверены, что могут “рассказать разницу между клонированный голос и реальным”, – говорится в опросе, опубликованном в прошлом месяце американской компанией McAfee Labs.

Американские чиновники предупредили о росте того, что широко известно как «мошенничество с бабушкой и дедушкой», когда самозванец выдает себя за внука, срочно нуждающего в деньгах в печально острой ситуации.

“Вам звонят. На линии паникует голос. Это твой внук. Он говорит, что у него большие неприятности – он разбил машину и попал в тюрьму. Но вы можете помочь, отправив деньги”, – говорится в предупреждении Федеральной торговой комиссии США в марте.

“Звучит так же, как он. Как это может быть мошенничество? Клонирование голоса, вот как”.

В комментариях под предупреждением FTC были многочисленные свидетельства пожилых людей, которые были обмануты таким образом.

– «Вредоносный» –

Это также отражает опыт Эдди, 19-летнего парня из Чикаго, чьему деду позвонил человек, который говорил так же, как он, и заявил, что ему нужны деньги после автомобильной аварии.

Уловка, о которой сообщила McAfee Labs, была настолько убедительной, что его дедушка срочно начал собирать деньги и даже подумывал о перезакладывании своего дома, прежде чем ложь была раскрыта.

«Поскольку теперь легко создавать очень реалистичные голосовые клоны… почти любой, кто хоть как-то присутствует в сети, уязвим для атаки», — сказал AFP Хани Фарид, профессор Школы информации Калифорнийского университета в Беркли.

«Эти мошенничества набирают обороты и распространяются».

Ранее в этом году стартап ElevenLabs, специализирующийся на искусственном интеллекте, признал, что его инструмент для клонирования голоса может быть использован в «злонамеренных целях» после того, как пользователи опубликовали дипфейк, в котором утверждалось, что актриса Эмма Уотсон читает биографию Адольфа Гитлера «Майн кампф».

«Мы быстро приближаемся к тому моменту, когда вы не сможете доверять тому, что видите в Интернете», — сказал AFP Гал Таль-Хохберг, главный технический директор группы венчурного капитала Team8.

«Нам потребуются новые технологии, чтобы знать, является ли человек, с которым, по вашему мнению, вы разговариваете, на самом деле тем человеком, с которым вы разговариваете», — сказал он.

0

Автор публикации

не в сети 22 часа

Андрей Маргулис

574
С организацией DDoS атак завязал.
Выкладываю новости технологий и интересные статьи с темной стороны интернета.
32 года
День рождения: 14 Мая 1991
Комментарии: 551Публикации: 3093Регистрация: 12-12-2015
Понравилась статья? Поделиться с друзьями:
РЭНБИ - Europe
Авторизация
*
*
Регистрация
*
*
*
*
Ваш день рождения * :
Число, месяц и год:
Отображать дату:
Генерация пароля