Спецпроєкти

Deepfake: в чем угроза технологии и как защитить себя


Современные технологии могут быть не только полезными и облегчать человеческую жизнь, но и добавлять опасности. Одним из таких является deepfake. Если злоумышленник пожелает, то с помощью искусственного интеллекта превратит вас в коррумпированного политика, порноактера или просто откроет на вас кредитную линию. Именно по этой причине мы рассказываем, в чем угроза deepfake и как защитить себя.

Что такое deepfake?

Deepfake (от англ. Deep learning – «глубокое обучение» и fake – «фальшивый») – технология манипуляции аудио- и видеоматериалами. Она позволяет получить реалистичное видео с человеком, который в реальности никогда не выполнял действий, которые можно увидеть на экране. Сейчас deepfake реализуется благодаря нейронным сетям.

Вообще история технологии начинается в девяностых годах. Тогда этим инструментом владели мастера по спецэффектам, и стоил он очень дорого. Можно вспомнить программу Video Rewrite, опубликованную в 1997 году. Она меняла видео с человеком таким образом, чтобы подстроить мимику лица под другую звуковую дорожку. То была первая технология, которая полностью автоматизировала этот вид анимации лица, и сделала это с помощью методов машинного обучения.

Впоследствии существующие инструменты несколько видоизменяли и совершенствовали энтузиасты на хакерских форумах, но добиться значительного результата им не удалось. Благодаря развитию искусственного интеллекта и программного обучения технология вышла на новый уровень. При создании deepfake-контента сейчас работают две нейросети. Первая анализирует изображение двух или более лиц в разных ракурсах. Она исследует то, как может двигаться человек, и его мимику. Затем создает уже из соединенных изображений видеопоток. Вторая нейросеть выполняет роль полицейского и следит за различиями между фейковыми и настоящими изображениями. Если она обнаруживает подделку, то отправляет фотографии на доработку. Это позволяет достичь высокого качества контента.

Deepfake-нейросети учатся благодаря библиотекам изображений и контента на видеохостингах. Они постоянно сравнивают между собой портреты знаменитостей, блогеров, политиков с видеороликами, где те фигурируют.

Первые демонстрации доступных deepfake-технологий состоялись в 2016 году. Студенты Стэнфордского университета, Университета Эрлангена-Нюрнберга и Общества имени Макса Планка Информатики представили прототип технологии Face2Face, которая позволяет накладывать мимику человека перед веб-камерой на лицо персонажа видеозаписи в реальном времени .

В 2017 году программы для создания дипфейков начали появляться все чаще, и большая часть из них является бесплатной, например, Google’s TensorFlow. Этим пользуются похотливые пользователи Reddit, которые создают порно со знаменитостями. Первой жертвой стала Дейзи Ридли. Не забыли поиздеваться и над Гадот, Эммой Уотсон, Кэти Перри, Тейлор Свифт и Скарлетт Йоханссон. Понимая возникшую проблему, владельцы Reddit приняли решение закрыть ветку Deepfakes на сайте.

В 2018 году появляется самая популярная на данный момент программа FakeApp, которая позволила каждому желающему создавать собственные дипфейк-видео в кратчайшие сроки.

После порно пользователи занялись политиками. В 2018 году появляется громкое фальшивое видео с экс-президентом США Бараком Обамой, где он якобы оскорбляет Дональда Трампа. Видеоролик был сделан с помощью FakeApp и Adobe After Effects. Можно также посмотреть видео с Марком Цукербергом, который рассказывает о катастрофическом положении дел с персональными данными людей. Кроме того, анонимы изменили поведение спикера палаты представителей конгресса США Нэнси Пелоси таким образом, что казалось, будто она пьяная, а потому плохо произносит слова.

В июне 2019 вышел в свет алгоритм DeepNude, который «раздевает» женщин на фотографиях. Программа максимально реалистично перерисовывает тело героини фотографии.

Из «свежих» примеров можно вспомнить фейковые предвыборные агитационные ролики кандидатов в депутаты Госдумы РФ. В одном из них министр иностранных дел Сергей Лавров обращается к героям видеороликов, критикуя их за диванную экспертность.

Словом, многие увидели, что deepfake-технологии стали не просто шуткой, а серьезной проблемой для достоинства людей, национальной безопасности и сохранения капитала юридических лиц.

Чем опасен deepfake?

Deepfake – это тот случай, когда технологии создали больше проблем, чем принесли пользы. Система замены лица повлияла на многие сферы человеческой жизни. Прежде всего это политика и шоу-бизнес.

Теперь можно легко дискредитировать любую публичную личность. Не обязательно заменять ее лицо в порно. Это неприятно, но не худшая из проблем. В целом такие ролики можно распознать на фальшивость через, скажем так, характерную и похожую игру актеров такого контента. Они находятся в одних позах с одним и тем же выражением лица, поэтому заметна искусственность наложенного сверху другого лица.

Если же речь о совершении преступления, то мы просто теряем видео и даже звук в качестве доказательства в судебных процессах, поскольку уже появились технологии имитации голоса. Экспертизы голоса и видео судебных заседаний проводятся регулярно, но теперь отличать фейк от настоящей записи будет все труднее.

В результате возникает широкий круг возможностей для дискредитации политических оппонентов. Сделать дипфейк-видео конкурента на выборах и заставить его оправдываться перед избирателями. Кроме того, политик может списать свои коммуникационные ошибки и правонарушения на коварных врагов, которые использовали дипфейк-технологии.

В то же время политики не замедлили с ответом. В октябре 2019-го губернатор Калифорнии Гэвин Ньюсом подписал документ AB 730, известный как «антидипфейк-законопроект», который запрещает распространение дипфейк-видео во время предвыборной кампании в 2020 году.

Также deepfake прекрасно сочетается преступниками с другими хакерскими программами и социальной инженерией. Существует понятие целевого фишинга. Его используют, чтобы обмануть сотрудников компании, в частности из финансового отдела. Выявить мошенников, которые используют такой метод, довольно трудно.

Например, атака Business E-mail Compromise заключается в том, что хакеры собирают информацию о руководстве компании, а затем с помощью вирусов получают контроль над корпоративным аккаунтом электронной почты, а потому могут отправлять письма с легитимных адресов (или подделать электронные адреса, является несколько сложным процессом). Кроме того, жертве может быть отправлено смс с телефона директора, если злоумышленник получил доступ к гаджету.

Самая распространенная ситуация: мошенники отправляют в финансовый отдел е-mail от имени директора компании с просьбой перевести деньги на определенный счет. Для подтверждения личности используются фейковые видео и аудиозаписи. Главное – сделать так, чтобы человек доверял и нервничал из-за срочности операции и меньше анализировал ситуацию.

В августе 2019 году в одной компании, которая работает в сфере энергетики, киберпреступник украл с помощью технологии deepfake сумму в размере 220 тысяч евро. Злоумышленник вышел на связь с финансовым отделом как управляющий компании из Германии. Он попросил смоделированным голосом срочно перевести деньги на счет в Венгрии.

Как обезопасить себя от deepfake?

Конечно, можно попросить человека позвонить и ответить вам на некоторые вопросы, ответы на которые невозможно найти в открытом доступе. Здесь мы сталкиваемся с определенными проблемами. Если хакеры получили доступ к телефону жертвы, то можете быть уверены, что они смогут сымитировать голос в реальном времени для разговора с партнером. Более того, сотрудник не может на психологическом уровне спорить с начальником, так как боится возможного увольнения.

По этой причине лучшим вариантом защиты от дипфейков может быть присутствие всех людей вживую во время проведения финансовых операций. Это позволит проконтролировать процесс и реализовать принцип корпоративной ответственности и рабочей субординации.

Если часть персонала находится в командировках или работает дистанционно, то можно придумать кодовое слово для идентификации, но его нельзя хранить в корпоративных устройствах, и сообщать его необходимо только во время звонков. Также необходимо минимизировать число каналов коммуникации и утвердить ответственность за распространение корпоративной информации. Распространение фото и видео руководителей компании должно быть ограниченным даже на персональных страницах социальных сетей. Служба безопасности должна следить за новыми практиками выявления дипфейков и применять их.

Управление перспективных исследовательских проектов Министерства обороны США (DARPA) в статье In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking отмечает, что выявить дипфейк можно по частоте моргания человека в кадре. Искусственному интеллекту трудно учиться имитации этого приема из-за того, что люди редко моргают на фотографиях.

Для защиты данных рядовых пользователей можно использовать многофакторную аутентификацию и электронной подписи для доступа, например, к банковским счетам. Сломать можно все, главное – это время и результат от его расходования.

По порнографии, если вы не публичное лицо, лучше не реагировать, поскольку «горячие темы» быстро забываются. В противном случае – нужно доказывать, что это был дипфейк.

Конечно, необходимо меньше распространять о себе любой информации в Интернете. Будьте бдительны и меньше пользуйтесь дипфейк-технологиями ради фана. Разработчики и технологии учатся и становятся более сложными только благодаря вам.

#bit.ua
Читайте нас в
Telegram
Мы в Телеграме
подписывайтесь

Долучайтеся до нашого Telegram-каналу з тестами! 🧐