Перейти до основного вмісту

Технологія глибинних фейків: як глибоко брехня може інкорпоруватися в наше життя?

Що таке deep fake, як це працює і чому небезпечне.
Источник

Примітка редакції. Републікуємо матеріал Марії Крючок для Media Sapiens про сучасні технології, за допомогою яких створюють цілком правдоподібну фейкову інформацію. Особливо актуальний він на тлі інформаційних війн і нових кібервикликів.

Штучний інтелект дає змогу нині створювати підроблені відео, які виглядають майже як справжні. Як це відбувається й куди нас це може привести?

Дональд Трамп знявся у фільмі «Назад у майбутнє», Ніколас Кейдж став головним героєм усіх американських блокбастерів одночасно, а Емма Ватсон подалась у порноакторки. Звучить неймовірно? Завдяки сучасним технологіям підробки відео такі новини цілком реальні, і дещо вже можна побачити на просторах інтернету (ось приклад). Так звані глибинні фейки (deep fakes) стають не просто розвагою, яка може зіпсувати репутацію, а й реальною кіберзагрозою.

Термін deep fakes — це поєднання слів «глибинне навчання» (deep learning) та «фейк» (fake). Глибинні фейки почали з’являтися кілька років тому завдяки одній із технологій машинного навчання, що називається «генеративна змагальна мережа» (generative adversarial network, GAN), а також технології зображень, згенерованих комп’ютером (computer-generated imagery, CGI). Перший метод був запроваджений тільки 2014 року, і його суть полягає у створенні серії штучних світлин та накладанні їх на наявне відео. Тоді як другий метод використовують в анімації вже кілька десятиліть: наприклад, мультфільм «Історія іграшок» (1995) від студії Pixar реалізований повністю за допомогою технології CGI. Загалом метод синтезу й редагування облич на відео не новий, просто став наразі доступнішим.

Звідки ноги ростуть

У грудні 2017-го про глибинні фейки заговорили після серії порновідео, де замість порно-акторок були нібито справжні зірки або героїні кінофільмів. Перший такий випадок трапився у спільноті Reddit, коли користувач із ніком Deepfake опублікував порно-відео з головною героїнею екшн-стрічки Гал Гадот («Диво-жінка»). Згодом з’явилися відео з іншими кіногероями та акторками. У лютому 2018-го платформа Reddit забанила відповідну спільноту за поширення фейкових відео. Однак автор цих фейків уже встиг розповсюдити інструмент FakeApp, що дає змогу безкоштовно створювати фейкові відео. Звісно, фінальний продукт виходить невисокої якості, але достатньої, щоби ввести когось в оману.

Зірки найчастіше стають об’єктами deep fakes, тому що у вільному доступі існує багато світлин та відео з їхніми обличчями. Нейромережа навчається на основі цих зображень, створює маску з обличчям знаменитостей, після чого вона можна замінювати будь-яке обличчя у вже відзнятому відео на згенероване. Те саме стосується й інших публічних осіб, наприклад, політиків. Утім, якщо ви публікуєте багато своїх власних зображень в інтернеті, то також можете стати об’єктом відео підробки.

Три способи, як створити штучне відео

Програма Face2Face була запропонована групою дослідників у 2016-му. У цьому відео вони показують, як змінюють, наприклад, відео із Джорджем Бушем у реальному часі. Науковці взяли спеціальний пристрій, що зчитував міміку актора-«джерела» й одразу накладав її на актора у відео, який був метою такої маніпуляції.

У липні 2017 року на щорічній конференції SIGGRAPH дослідники Університету Вашингтона презентували відео з Бараком Обамою, який говорить те, чого він ніколи не казав. Дослідники використали вже наявні відео з Обамою для того, щоб навчити нейромережу синтезувати рух губ зі звуком.

Простіше кажучи, Барак Обама відкривав рот так, щоб відповідати вхідній звуковій доріжці. Технологія здобула назву Learning Lip Sync from Audio. Цікаво, що на створення такого інструменту авторів надихнув проект, що дає можливість дізнатися правду про Голокост від тих, кому вдалося вижити. Про це розповідає у своєму виступі на TED Супасорн Суваджанакорн (Supasorn Suwajanakorn) — один із науковців дослідницької групи, що працювала над цим проектом.

Через рік, 2018-го, на тій самій конференції SIGGRAPH дослідники вже зі Стенфордського університету запропонували технологію глибинних відеопортретів (deep video portraits). У своєму проекті вони демонструють, як можна перенести будь-яку міміку (рух брів, голови, усмішку тощо) від «обличчя-джерела» на будь-яке інше обличчя. У відео нижче науковці також порівнюють свої розробки з іншими наявними технологіями.

Що ж до підробки голосу, то цього разу так само застосовано технологію GAN. Наприклад, стартап Lyrebird записує лише одну вашу фразу й на основі цих метаданих може створювати будь-які інші промови вашим голосом. Мова звучить настільки реалістично, що по телефону вас не впізнає навіть рідна мама. Дивіться про це детальніше в сюжеті Bloomberg.

Для чого можна використовувати технологію глибинних фейків?

Якщо раніше вважали, що журналіст у камері потрібен для того, аби засвідчити глядачу, що він (вона) був на місці події, а відеоматеріал був якісним підтвердженням того, що певна подія відбулася, то тепер це під великим сумнівом.

Звісно, є небезпека, що глибинні фейки будуть використані як масовий інструмент для пропаганди та дезінформації. Але поки що створення такого продукту — досить дороге задоволення. Будь-яка технологія нейтральна сама по собі, а далі все залежить від намірів того, хто планує нею скористатися.

По-перше, ця технологія має великий потенціал для кіноіндустрії, зокрема, для дубляжу. Уявіть, що улюблені актори в голлівудських фільмах почнуть говорити нібито українською.

По-друге, її можна використовувати для створення необхідних кадрів з акторами, локаціями, потрібної погоди в кадрі тощо. Актор Пол Волкер загинув до завершення зйомок у своєму останньому фільмі «Форсаж-7». Однак фільм удалося завершити, незважаючи на відсутність необхідних кадрів із ним. Це сталося завдяки використанню подібної технології, яка дала змогу згенерувати потрібні відео з Полом Волкером для логічного завершення фільму.

Це також цікава ніша для бізнесу, а не тільки для кіно- та порноіндустрії. Наприклад, компанія Synthesia використовує її для автоматичного перекладу. В такому разі алгоритм також генерує рух губ відповідно до мови і змінює відео.

Технологія ще не ідеальна. Якщо ви уважно переглянете відео, то побачите, що рух губ не завжди відповідає руху шиї. Простір для розвитку очевидний.

Чи є протидія глибинним фейкам?

Глибинні фейки, як і звичайні фейки, — це завжди спроба вплинути та зманіпулювати людською думкою. Тому медіаграмотність і критичне мислення залишаються важливими компетенціями для сучасної людини — яких можна навчитися на безкоштовному онлайн-курсі «Фактчек: довіряй – перевіряй».

Серед інших інструментів для створення захисту від подібних фейків важливу роль відіграє законодавство країни. Якщо Франція ввела закон щодо вилучення фейкових новин у ЗМІ під час виборів, а британський уряд пропонує відмовитися від вживання слова «фейк», то в Україні все ще залишається велике поле для маніпуляцій.

Велику роль також відіграють корпорації на кшталт Google, YouTube, Facebook та інших, де можуть швидко поширюватися відео із глибинними фейками. Тому для таких компаній важливо розробити прозору політику жорсткішого регулювання подібних випадків, щоб вони могли так само банити користувачів за поширення фейкових відео, як, наприклад, Reddit. Колективний бан конкретних відео деякими платформами матиме кумулятивний ефект, але наскільки це буде дієво, поки що говорити зарано.

Науковці також не залишаються осторонь цієї проблеми. Ті самі дослідники, які створили відео з Обамою, разом з колегами, що працюють над штучним інтелектом, створили Фундацію штучного інтелекту. В її рамках вони планують боротися з поширенням deep fakes у суспільстві. Наразі науковці розробляють плагін для браузера, що зможе одразу ідентифікувати підроблене відео. Для того, щоб не пропустити вихід цього інструмента, можна підписатися на їхню розсилку.

Поширення глибинних фейків — це також питання національної безпеки. Так, у листопаді 2018-го стало відомо, що науково-дослідне агентство при Міністерстві оборони США (Defense Advanced Research Projects Agency) протягом останніх двох років працює над створенням технології, яка могла би виявляти подібні високотехнологічні підробки. За цей час на наукові розробки було витрачено майже 68 млн доларів.

''отсканируй
и помоги редакции

''