Спецпроєкти

Deepfake: в чому полягає загроза технології та як захистити себе


Сучасні технології можуть бути не тільки корисними і полегшувати людське життя, але і небезпечними. Одніє з таких є deepfake. Якщо зловмисник забажає, то за допомогою штучного інтелекту перетворить вас в корумпованого політика, порноактора або просто відкриє на вас кредитну лінію.  Саме тому ми розповідаємо, в чому загроза deepfake та як себе захистити.

Що таке deepfake?

Deepfake (від англ. Deep learning – «глибоке навчання» і fake – «фальшивий») – технологія реалістичної маніпуляції аудіо- та відеоматеріалами. Вона дозволяє отримати реалістичне відео з людиною, яка в реальності ніколи не робила дій, продемонстрованих на екрані. Наразі deepfake реалізовується завдяки нейронним мережам.

Взагалі історія цієї технології розпочинається в 90-их роках. Тоді цим інструментом володіли майстри спецефектів, і коштував він дуже дорого. Можна згадати програму Video Rewrite, опубліковану в 1997 р. Вона змінювала відео з людиною таким чином, щоб підлаштувати міміку обличчя під іншу звукову доріжку. Це була перша технологія, яка повністю автоматизувала цей вид анімації обличчя, і зробила це за допомогою методів машинного навчання.

Згодом існуючі інструменти дещо видозмінювали та удосконалювали ентузіасти на хакерських форумах, але досягти значного результату їм не вдалося. Завдяки розвитку штучного інтелекту та програмного навчання технологія вийшла на новий рівень. При створенні deepfake-контенту зараз працюють дві нейромережі. Перша аналізує зображення двох або більше осіб в різних ракурсах. Вона досліджує те, як може рухатися людина, вирази її обличчя. Потім створює вже зі з’єднаних зображень відеопотік. Друга нейромережа виконує роль поліцейського і слідкує за відмінностями між фейковими і справжніми зображеннями. Якщо вона виявляє підробку, то відправляє світлини на доопрацювання. Це дозволяє досягти найвищої якості контенту.

Deepfake-нейромережі навчаються завдяки бібліотекам зображень та контенту на відеохостингах. Вони постійно порівнюють між собою портрети знаменитостей, блогерів, політиків з відеороликами, де вони фігурюють.

Перші демонстрації доступних deepfake-технологій відбулися в 2016 році. Cтуденти Стенфордського університету, Університету Ерлангена—Нюрнберга та Товариства імені Макса Планка з Інформатики представили прототип технології Face2Face, яка дозволяє перекладати міміку людини перед веб-камерою на особу на відеозаписі.

В 2017 році програми для створення діп-фейків почали з’являтися все частіше, і більша частина з них є безкоштовною, наприклад, Google’s TensorFlow. Цим користуються хтиві юзери Reddit, які створюють порно зі знаменитостями. Першою жертвою стала Дейзі Рідлі. Не забули познущатися з Галь Гадот, Емми Уотсон, Кеті Перрі, Тейлор Свіфт та Скарлетт Йоганссон. Розуміючи проблему, яка виникла, власники Reddit прийняли рішення закрити гілку Deepfakes на сайті.

В 2018 році з’являється найпопулярніша наразі програма FakeApp, яка дала можливість кожному бажаючому створювати власні діп-фейк відео в найкоротші терміни.

Після порно користувачі зайнялися політиками. В 2018 році з’являється гучне фальшиве відео з експрезидентом США Бараком Обамою, де він нібито ображає Дональда Трампа. Відеоролик був зроблений за допомогою FakeApp і Adobe After Effects. Можна також подивитися відео з Марком Цукербергом, який розповідає про катастрофічний стан справ з персональними даними людей. Крім того, аноніми змінили поведінку спікера палати представників конгресу США Ненсі Пелосі таким чином, що здавалося, ніби вона п’яна, а тому погано вимовляє слова.

У червні 2019 року побачив світ алгоритм DeepNude, який «роздягає» жінок на фотографіях. Програма максимально реалістично перемальовує тіло героїні світлини.

Зі «свіжих» прикладів можна згадати фейкові передвиборні агітаційні ролики кандидатів в депутати Держдуми РФ. В одному з них міністр закордонних справ Сергій Лавров звертається до героїв відеороликів, критикуючи їх за диванну експертність.

Словом, багато людей побачили, що deepfake-технології стали не просто жартом, а серйозною проблемою для гідності людей, національної безпеки та збереження капіталу юридичних осіб.

Чим небезпечний deepfake?

Deepfake – це той випадок, коли технології створили більше проблем, ніж принесли користі. Система заміни обличчя вплинула на багато сфер людського життя. Насамперед це політика та шоу-бізнес.

Тепер можна легко дискредитувати будь-яку публічну особу. І не обов’язково заміняти її обличчя в порно. Це неприємно, але не найгірша з проблем. Бо в цілому такі ролики можна розпізнати на фальшивість через, скажімо так, характерну та схожу гру акторів такого контенту. Вони знаходяться в одних позах з одним й тим самим виразом обличчя. Саме тому помітна штучність накладеного зверху іншого обличчя.

Якщо ж мова йде про вчинення злочину, то ми просто втрачаємо відео та навіть звук в якості доказу на судових процесах, оскільки вже з’явилися технології імітації голосу. Експертизи голосу та відео для судових засідань проводяться регулярно, але тепер відрізняти фейк від справжнього запису буде все важче.

В результаті виникає широке коло можливостей для дискредитації політичних опонентів. Зробити діп-фейк відео конкурента на виборах і змусити його виправдовуватися перед виборцями. Крім того, політик може списати свої комунікаційні помилки та правопорушення на підступних ворогів, які використали діп-фейк-технології.

Водночас політики не забарилися з відповіддю. У жовтні 2019 року губернатор Каліфорнії Гевін Ньюсом підписав документ AB 730, відомий як «антідіпфейк-законопроект», який забороняє розповсюдження діпфейк-відео під час передвиборної кампанії в 2020 році.

Також deepfake чудово поєднується злочинцями з іншими хакерськими програмами та соціальною інженерією. Існує поняття цільового фішингу. Його використовують, щоб обдурити співробітників компанії, зокрема з фінансового відділу. Виявити шахраїв, які використовують такий метод, доволі важко.

Наприклад, атака Business E-mail Compromise полягає в тому, що хакери збирають інформацію про керівництво компанії, а потім за допомогою вірусів отримують контроль над корпоративним обліковим записом електронної пошти, а тому можуть відправляти листи з легітимних адрес (або підроблювати електронні адреси, що є дещо складнішим процесом). Крім того, жертві може бути надісланий смс з телефона директора, якщо зловмисник отримав доступ до гаджету.

Найпоширеніша ситуація: шахраї відправляють в фінансовий відділ е-mail від імені директора компанії з проханням перевести кошти на певний рахунок. Для підтвердження особистості використовуються фейкові відео- та аудіозаписи. Головне – зробити так, щоб людина довіряла та нервувала через терміновість операції і менше аналізувала ситуацію.

У серпні 2019 року в однієї компанії, яка працює в сфері енергетики, кіберзлочинець вкрав за допомогою технології deepfake суму в розмірі 220 000 євро. Зловмисник вийшов на зв’язок з фінансовим відділом як керуючий компанії з Німеччини. Він змодельованим голосом попросив терміново перевести гроші на рахунок в Угорщині.

Як убезпечити себе від deepfake?

Звичайно, можна попросити людину вам зателефонувати та відповісти на певні запитання про неї, відповіді на які неможливо знайти у відкритому доступі. Тут ми зіштовхуємося з певними проблемами. Якщо хакери отримали доступ до телефону жертви, то можете бути впевнені, що вони зможуть зімітувати голос в реальному часі для розмови з партнером. Ба більше, співробітник не може на психологічному рівні сперечатися з начальником, оскільки боїться можливого звільнення.

Саме тому найкращим варіантом захисту від діп-фейків може бути присутність всіх людей наживо під час проведення фінансових операцій. Це дозволить проконтролювати процес і реалізувати принцип корпоративної відповідальності та робочої субординації.

Якщо частина персоналу знаходиться у відрядженнях або працює дистанційно, то можна придумати кодове слово для ідентифікації, але його не можна зберігати в корпоративних пристроях і повідомляти його необхідно тільки під час дзвінків. Також необхідно мінімізувати число каналів комунікації та затвердити відповідальність за розповсюдження корпоративної інформації. Розповсюдження фото та відео керівників компанії має бути обмеженим навіть на персональних сторінках соціальних мереж. Служба безпеки має слідкувати за новими практиками виявлення діп-фейків та застосовувати їх.

Управління перспективних дослідницьких проектів Міністерства оборони США (DARPA) у статті «In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking» зазначає про те, що виявити діпфейк можна за частотою моргання людини в кадрі. Штучному інтелекту важко навчатися імітації цього прийому через те, що люди рідко моргають на фотографіях.

Для захисту даних пересічних користувачів можна використовувати багатофакторну аутентифікацію та електронний підпис для доступу, наприклад, до банківських рахунків. Зламати можна все, головне – це час та результат від його витрачання.

Щодо порнографії, то якщо ви не публічна особа, – краще не реагувати, оскільки «гарячі теми» швидко забуваються. В іншому випадку – потрібно доводити, що це був діп-фейк.

Звичайно, необхідно менше розповсюджувати про себе будь-якої інформації в Інтернеті. Будьте пильними і менше користуйтеся діп-фейк технологіями заради фану. Розробники і технології навчаються і стають більш просунутими лише завдяки вам. У випадку з deepfake краще б цього не відбувалося.

#bit.ua
Читайте нас у
Telegram
Ми в Телеграмі
підписуйтесь

Долучайтеся до нашого Telegram-каналу з тестами! 🧐