Эксперты обнаружили первый случай финансового мошенничества, использующего deepfake — основанную на искусственном интеллекте технологию синтеза видео- и аудиоконтента, близкого к оригиналу. Обманщикам удалось почти безупречно воссоздать голос гендиректора компании и с помощью фальшивой фонограммы добиться перевода 220 тыс. евро (243 тыс. долларов США) на свой банковский счет.

Первым об инциденте сообщил Wall Street Journal (WSJ). По словам репортера, ИБ-эксперты расценили этот случай как опасный пример.

«Как специалисты по верификации подлинности, мы наблюдаем значительный рост мошенничества с использованием методов искусственного интеллекта, — заявил журналистам Threatpost Дэвид Томас (David Thomas), исполнительный директор компании Evident. — В бизнесе уже нельзя слепо верить на слово, когда кто-то представляется и отдает распоряжения. И бизнесмены, и обычные пользователи начинают понимать, насколько важны проверки идентичности. С появлением deepfake-фальшивок доверие к звонкам и видеофайлам начало падать».

Сообщение WSJ, появившееся в конце прошлой недели, было написано со слов представителя страховой компании Euler Hermes Group SA. Назвать пострадавшую бизнес-структуру собеседник журналистов отказался, но о самом инциденте рассказал в подробностях.

Мошенники осуществили свою аферу в марте, притом исполнительный директор энергетической компании даже не усомнился, что разговаривает по телефону со своим боссом — главой крупного германского холдинга. «Босс» просил срочно перевести €220 тыс. на счет некоего поставщика в Венгрии, обещая в скором времени вернуть всю сумму филиалу. Деньги были переведены, однако обманщикам этого показалось мало. Они повторили свой трюк, но на этот раз жертва заподозрила подлог и платить отказалась.

Украденные средства мошенники перевели из Венгрии в Мексику, а затем — на свои счета в других странах. Страховщик возместил потери пострадавшей компании, но урок оказался поучительным.

Согласно статистике Pindrop, в период с 2013 по 2017 год количество эпизодов мошенничества с использованием речевой связи возросло на 350%. При этом в одном случае из 638 звонивший использовал фонограмму, созданную с помощью синтезатора речи.

Специалисты по кибербезопасности усиленно продвигают ИИ-технологии, помогающие разработчикам автоматизировать функции защитных приложений, а бизнесменам — выискивать аномалии в работе компьютерных систем и сетей. Вместе с тем инцидент в энергетической компании показывает, что эти методы можно использовать и с неблаговидной целью. Злоумышленники могут ими воспользоваться для автоматизации фишинговых атак, обхода аутентификации по голосу или массового поиска и эксплуатации уязвимостей нулевого дня.

К счастью, со слов Томаса из Evident, современные средства проверки подлинности в состоянии обнаружить подобные попытки. «Бизнес-структуры не должны терять бдительности, — говорит эксперт. — Чтобы противостоять ИИ-угрозам, им следует применять адекватную верификацию — к примеру, многофакторную идентификацию, распознавание лиц и комплексную проверку идентичности».

Категории: Кибероборона, Мошенничество