Боротьба з фальшивими фальшивками, як ми можемо з ними боротися

Боротьба з фальшивими фальшивками, як ми можемо з ними боротися

У розпал цифрової епохи занепокоєння фальшивими новинами дедалі більше привертало увагу громадських організацій, засобів масової інформації та особистостей усіх видів. Не дарма Fake News мали певну вагу у важливих виборчих процесах, таких як президентські вибори у США в 2016 році, референдум про вихід Великобританії з Європейського Союзу або генерали Бразилії, які дали Болсонаро перемогу.

Без необхідності йти так далеко, у нашій країні Facebook нещодавно довелося закрити три великі ультраправі мережі, які завдяки 30 сторінкам, групам та дублікатам акаунтів накопичили понад півтора мільйона послідовників та понад 7 мільйонів взаємодій . Ці групи були присвячені поширенню містифікацій та фальшивих образів.

Але зараз ми зіткнулися з іншим типом цифрової загрози, яка породжує нові головні болі. Ми говоримо про так званий Deepfake, термін, який виникає в результаті поєднання "глибокого навчання"  та "підробки". В основному це форма штучного інтелекту,  яка дозволяє будь-якому користувачеві редагувати фальшиві відео та аудіо людей, які здаються справжніми. Для цього використовуються  антагоністичні генеративні мережі (AGR) , своєрідний алгоритм, який може створювати нові типи даних з інших вже існуючих наборів.

Коротше кажучи, "фальшиві фейки" - це ще одна форма цифрових маніпуляцій , і одна з найбільш ймовірних, що буде використана для "тролінгу" в найкращих випадках. Але як ми можемо їх виявити? І, перш за все, що роблять приватні установи та компанії для запобігання її згубних наслідків? У цій спеціальній статті ми розглянемо зусилля, спрямовані на припинення цієї нової цифрової напасті.

Чому фальшиві фальшивки так небезпечні?

Технологія “deepfake” дозволяє нам легко замінити обличчя однієї людини на обличчя іншої, як якщо б це була якась маска або цифрова маска, щоб ми повірили,  що він сказав певні речі, які ніколи насправді не мали місця . Як можна здогадатися, ці методи мають ряд досить значних наслідків для визначення законності інформації, що циркулює в Інтернеті.

Хоча їх часто використовують для створення жартівливих відеороликів, правда полягає в тому, що "фальшиві фальшивки" мають темний потенціал знищити суспільний імідж людини або вплинути на громадську думку за допомогою дезінформації. На жаль, ми повинні сказати вам, що це зловживання є більш розповсюдженим, ніж ми хотіли б, і з величезним успіхом ми повинні додати.

Яскравим прикладом є додаток DeepNude, який дозволяв завантажувати зображення людини з одягом і створювати  нову з такою ж оголеною людиною . На щастя, він уже закритий, але ми повинні підкреслити простоту використання цього типу інструментів, для яких не потрібно знання редагування, оскільки сам алгоритм виконує всю роботу.

поглиблений

У випадку з DeepNude платформа дала неймовірно реалістичні результати та була повністю доступна через веб-сайт для Windows та Linux . І як слід було очікувати, монтажі з такими знаменитостями, як Кеті Перрі або Галь Гадот, не довго тривали, щоб з’явитись у мережі, аж до того, що тиск з боку адвокатів цих актрис не припинявся, поки важливі веб-сайти для дорослих не видалили відео .

Це лише вершина айсберга вантажопідйомності, якою можуть володіти такі типи застосувань. А тепер уявіть наслідки кампанії такого типу, спрямованої на певного політичного діяча з метою маніпулювання виборчим процесом у країні чи регіоні. Зло не знає меж.

deepfake

Як ви боретеся з фальшивими фальшивками?

Одною з перших компаній, яка висловилася, була не хто інша, як Google, яка оголосила про свою тверду волю до боротьби з фальшивими фальшивками і, як кажуть у цих випадках, вогонь гасить вогонь. Технологічний гігант підтвердив запуск цілої бази даних до 3000 відео, маніпульованих штучним інтелектом (deepfakes), які були створені спеціально для вдосконалення інструментів виявлення дослідників.

Для цього Google найняв реальних акторів, щоб записати їх обличчя та використати їх як орієнтир, щоб визначити, чи було відео штучно змінено. За допомогою доступних кожному методів створення фальшивих фальшивок з цих записів створюються тисячі фальшивих фальшивок.

Отримані відео, реальні та підроблені, завантажуються на платформу спільної розробки GitHub, щоб дослідники повністю зрозуміли, що створює система. Як ми говоримо, ця база даних є повністю доступною, хоча спочатку вони повинні дати вам дозвіл .

Зі свого боку, Facebook також планує створити подібну базу даних до кінця цього року. За словами його виконавчого директора Марка Цукерберга, основною проблемою є те,  що галузь не має стандартизованої системи їх виявлення . Ось чому він об'єднався з Асоціацією штучного інтелекту, Microsoft та науковцями з Cornell Tech, MIT, Оксфорда, UC Berkeley, University of Maryland, College Park та University of Albany-SUNY, щоб побудувати Deepfake Detection Challenge. (DFDC для його скорочення англійською мовою).

Цей макропроект включатиме велику базу даних та детальну класифікацію , на додаток до фінансової допомоги та пожертв для заохочення якомога більшої кількості співробітників. Ідея полягає в тому, щоб створити своєрідну спільноту, яка допомагає виявляти та уникати маніпульованих відео через ШІ.

Немає сумнівів, що розповсюдження "фальшивих підробок" стало дуже серйозною проблемою із серйозними наслідками, які не можна ігнорувати. Незважаючи на те, що заходи, запропоновані головними агентами, причетними до цієї справи, можуть здатися непрактичними або навіть контрпродуктивними, в довгостроковій перспективі, вони можуть бути єдиним способом викорінення цього злочину. Хоча це може здатися неінтуїтивним, боротьба з "глибокими підробками" з більшою кількістю "глибоких підробок" допоможе засобам виявлення поглинати більше даних, щоб допомогти їм легше знаходити такі типи монтажу .