Deepfake. Как заставляют переводить деньги мошенникам | Онлайн бухгалтерия Небо

Deepfake. Как заставляют переводить деньги мошенникам

Deepfake. Как заставляют переводить деньги мошенникам

Недавно три компании подверглись новому виду кибератак. Сотрудникам фирм звонил якобы генеральный директор и просил перевести на счет крупную сумму. На самом деле СЕО каждой из фирм даже не знали о звонках. А их голоса были подделаны с помощью технологии deepfake. Рассказываем, что это за технология и какую угрозу она несет для бизнеса.

Что такое deepfake

Deepfake — это технология на основе искусственного интеллекта. Она способна синтезировать изображения или голос, а затем накладывать их на изображения, видео или речь. Активно используется для создания фейковых видео.

В этом месяце на YouTube появилось видео, где Киану Ривз спасает магазин от грабителя. На самом деле звезды не было в магазине, а роль исполнил актер Рубен Ленгтон. Изображение и голос Ривза наложили с помощью программы.

Для наложения видео и голоса используется методика машинного обучения GAN (генеративно-состязательная нейросеть). В основе алгоритма лежит комбинация работы двух нейросетей. Одна создает визуальные эффекты, используя имеющиеся данные, а вторая распознает подделки. После распознавания первая нейросеть делает фейк лучше и так далее, пока подделка не станет практически идентичной оригиналу.

Для качественного синтеза изображения и голоса понадобится много фото, видео и аудиозаписей. Все это есть в открытом доступе в интернете.

Как технология deepfake подделывает голоса СЕО

Три deepfake-атаки на частные фирмы, о которых говорилось выше, были успешным экспериментом компании Symantec. Это крупная организация в сфере кибербезопасности.

Специалисты использовали интервью и телефонные разговоры директоров, находящиеся в открытом доступе в интернете. Подделки получились удачными. 

Сотрудники Symantec звонили в финансовые отделы фирм и просили сделать срочный перевод на определенный счет. Работники компаний слышали не голос звонившего, а голос СЕО, сгенерированный программой. Все три махинации сработали. Естественно, деньги после эксперимента были возвращены.

Насколько технология доступна и какую опасность несет бизнесу

Как пишет ВВС, применение deepfake-технологий все еще довольно трудное занятие, занимающее много времени. Требуется так же техника высокой мощности.

Однако сегодня, когда в обычных квартирах стоят компьютеры для майнинга криптовалют, легко найти мощный компьютер, а инструменты для создания подделок есть в свободном доступе.

Основной инструмент для создания фейковых видео — приложение FakeApp. И хотя его официальный сайт заблокирован, в интернете остались сайты, откуда программу можно скачать, а на Reddit есть целый раздел со ссылками.

Журналист New York Times Кевин Роуз, человек, не обладающий знаниями программиста, попробовал создать в приложении фейковое видео и поделился своими впечатлениями. Для создания ролика он использовал удаленный сервис, арендованный через Google Cloud Platform. Он обеспечил достаточную вычислительную мощность. На синтез видео ушло чуть более 8 часов.

В свободном доступе есть сервисы Lyrebird и iSpeach, с помощью которых можно подделывать голоса людей. Так что технология уже сейчас доступны мошенникам.

В марте 2019 года на конференции по кибербезопасности RSA в Сан-Франциско сотрудники McAfee (компания, занимающаяся кибербезопасностью) Стив Гробман и Селеста Фралик заявили, что поддельные лица на видео уже невозможно определить невооруженным глазом.

Эксперты, опрошенные Axios, прогнозируют развитие deepfake и говорят, что технология в будущем станет еще более доступна для мошенников.

В России эти технологии пока не используются достаточно широко. Все программы для создания фейков на английском языке. Однако они точно так же доступны. И в феврале этого года зампред правления Сбербанка Станислав Кузнецов описал возможную мошенническую схему. 

На Российском инвестиционном форуме он включил запись, на которой вымышленный губернатор просит 5 миллионов долларов на постройку моста голосом Иннокентия Смоктуновского. Кузнецов сказал, что с помощью мошеннических программ можно совершить звонок якобы с номера губернатора голосом этого губернатора. 

Как защититься от deepfake-мошенничества

В прошлом году американские исследователи разработали алгоритм, способный вычислить фейк в 99% случаев. Но алгоритм сложный, работает на основе нескольких нейросетей.

В Америке уже есть компании, предлагающие киберзащиту. Но их услуги стоят от 50 тысяч до 2 миллионов долларов в год. Крупные IT-фирмы разрабатывают свои технологии и обучают сотрудников, как распознавать подделки. 

Марк Цукерберг в интервью профессору Гарварда Кассу Санстейну сообщил, что Facebook собирается анализировать и вычислять фейковые видео с помощью искусственного интеллекта.

Руководитель направления разработок продуктов на базе искусственного интеллекта компании МТС Аркадий Сандлер считает, что в условиях новой интернет-реальности нужно всегда перепроверять информацию, даже если она кажется абсолютно верной. По мнению, Сандлера это пока что самый верный способ защиты.

Развитие технологий — это не только прогресс, но и появление новых мошеннических схем. Чтобы не стать жертвой, нужно следить за появлением технологических новшеств и всегда перепроверять информацию. Так что, если вам позвонил генеральный директор и попросил перевести крупную сумму, лучше перезвоните ему прежде, чем делать перевод.

Новые статьи на почту?


Имя *
E-mail *
Поделиться Вконтакте
Отправить

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *