Популярні Пости

Вибір Редакції - 2024

Нікому не вір: Чим загрожує нейросеть, що робить порнофейкі

дмитрий Куркін

фальшиве порновідео, В якому зірка фільму "Чудо-жінка" Галь Гадот нібито займається сексом зі своїм зведеним братом, що випливе в Мережі на цьому тижні, виявилося не просто фейком, а фейком, згенерованих за допомогою штучного інтелекту.

Автор ролика, анонімний користувач реддіта з ніком deepfakes, в інтерв'ю Vice підтвердив, що використовував нейросеть для того, щоб "пріфотошопіть" особа Гадот до тіла порноакторки. Підробка, в загальному, помітна, а deepfakes не планував будь-яким чином заробляти на ній - за його словами, він просто хотів перевірити, наскільки легко буде її виготовити за допомогою ІІ. І у нього для нас погані новини: зробити фальшиве порно "в домашніх умовах" виявилося дуже просто.

Проблема, в загальному, не в самих порнофейках: попит на знімки і відео, де схожі на знаменитостей актори і актриси займаються сексом, був, є і буде у фетишистів і любителів сенсацій. На зовнішній схожості із зірками в порноіндустрії робляться цілі кар'єри - цей феномен навіть породив видатний в своєму роді заголовок жовтої преси: "Карлик-порнодвойнік Гордона Рамзі виявлений мертвим в норі борсуків".

Але якщо раніше для виробництва потрібні були час, ресурси і хоч якесь майстерність, то нейромережа, натренований приварювати особи до зображення, сильно спрощує завдання. Вколюють роботи, а не людина, причому роботи від разу до разу розумнішають, а значить, підробки будуть виглядати все більш достовірними. Користувач deepfakes уточнив, що свій ІІ-софт він зібрав з підручних елементів, знайдених в бібліотеках відкритого коду, а фото і відео взяв в загальнодоступних стоках і хостингах на кшталт YouTube. Простіше кажучи, всі інструменти для генерування порнофейков лежали під носом не тільки у нього, а й у мільйонів людей по всьому світу.

І це, строго кажучи, навіть не новини. Ще в 2003-му фахівці Орегонського університету здоров'я і науки попереджали про те, що аудіоподделкі "легко зробити і важко визначити". До 2017 року прогноз збувся, і з'явилися згенеровані нейросетями фейки голосових записів, які дуже непросто відрізнити від справжніх. Слідом за аудіо підтяглося і відео. Розробка співробітників Університету Вашингтона синхронізує міміку обличчя людини з його промовою: в викладеному для прикладу ролику з Бараком Обамою даний тільки аудіо, картинка же згенерована програмою. З'єднайте одне з іншим - і ось вже готові підроблені ролики, в яких, скажімо, відомий ліберальний політик "визнається" в своїх симпатіях до Гітлера.

Потрібно зовсім небагато фантазії, щоб уявити, до яких зловживань може привести поява подібного штучного інтелекту - на їхньому тлі чатбот Microsoft, якого тролі з твіттера менше ніж за добу перетворили в расиста, здасться милою витівкою. І само собою, порнофейковие технології в першу чергу загрожують Ніяк не Галь Гадот, Тейлор Свіфт або Дженніфер Лоуренс. Вони досить забезпечені, щоб найняти армію IT-спеців, які розпізнають підробку, і флот юристів, який завалить позовами будь-якого, хто спробує використовувати ці підробки в корисливих цілях.

Ні, жертвами нових образливих алгоритмів будуть ставати прості смертні. Цифрові фейки можна використовувати для порноместі, кіберсталкінга, мережевий цькування, шантажу і маніпулювання людьми, які легко піддаються навіюванню і не особливо стежать за новинами з області передових технологій ( "Вашу доньку зняли на відео, терміново переведіть гроші, інакше його побачать ВСЕ"). І мова не обов'язково йде про порно: підробки точно так само можуть бути запущені в Мережу для політичної пропаганди і розпалювання ненависті.

"Але це ж жахливо!" Так, жахливо, і винен в цьому аж ніяк не кодер deepfakes. Як хакери часом зламують банківські системи не для того, щоб вкрасти гроші, а для того, щоб вказати відділу кіберзахисту на проломи в безпеці, так і винайдений програмістом-анонімом ІІ всього лише ставить нас перед фактом: епоха цифрових підробок - НЕ антиутопічна страшилка в дусі "Чорного дзеркала", а настала реальність. Вона поки ще не осмислена ні сучасної етикою (чи можна вважати порнофейкі вторгненням в особисте життя інших людей?), Ні чинним правом. Але саме в ній нам якось треба буде жити в найближчі роки. А значить, доведеться виробити протиотруту проти таких вкидань.

Куратори словника Collins назвали виразом 2017 року термін "fake news", тим самим підкресливши, що пересічний користувач ласий до клікбейт і репоста сенсаційні заголовки, не витрачаючи час на те, щоб перевірити справжність інформації. А між тим фейковий новини здатні впливати на результати виборів і референдумів. І це теж частина нової реальності, в якій ми вже існуємо і в якій нам потрібно буде навчитися бути менш легковажними.

Соціальні мережі і так зробили інтернет будинком зі скляними стінами, в якому за вашим життям можуть щодня спостерігати мільйони людей - навіть тоді, коли ви цього не хочете. Тепер же очевидно, що в цьому будинку ще і немає двері: будь-хто може спробувати вторгнутися в ваш особистий простір, за допомогою ІІ прикрутивши ваше обличчя до порноролик або фільму "Володар кілець". Privacy is dead, але винен в цьому не тільки Великий Брат у вигляді спецслужб і глобальних корпорацій, але й ми самі.

Світ цифрових підробок настає, але це не привід для паніки, параної, відмови від користування інтернетом або вимог заборонити нейромережі. Це привід задуматися про мережевий гігієни та нової етики, в якій буде раз і назавжди закріплено, що використовувати чуже зображення для створення цифрової підробки підло і незаконно. Часи, коли люди беззастережно вірили всьому, що говорять по телевізору (навіть якщо там кажуть, що "Ленін був грибом"), сходять нанівець. Точно так само ми потроху привчимо себе не вірити на слово всьому, що пишуть в інтернеті.

Обкладинка:Warp Records

Дивіться відео: Детективы. Никому не верь (Квітня 2024).

Залиште Свій Коментар