Створених ШІ дипфейків стає дедалі більше © Генерація в Runwayml на запит ZN.UA Шахраї не лише створюють провокаційні відео, а й використовують дипфейки для отримання грошей.
Нещодавно стало відомо про те, що прем’єр-міністр Італії Джорджа Мелоні подала до суду на творців порнографічного дипфейку за її участю. Вона має намір дати свідчення в суді та вимагає компенсацію у розмірі 100 тисяч євро, повідомляє The Independent.
У створенні дипфейку звинувачують двох чоловіків, батька та сина, їх вдалося розшукати, відстеживши слід мобільного пристрою, з якого завантажували відео.
На жаль, Мелоні – не перша, хто постраждав від розвитку технологій, що дозволяють створювати реалістичні фото та відео із зображеннями людей. Кількість жертв зловмисників уже вимірюється тисячами.
Що відомо про інших жертв порно-дипфейків
Як пише The Guardian з посиланням на Channel 4, відомо про 4000 знаменитостей, які стали жертвами порно-дипфейків. До них входять актриси, телевізійні зірки, музиканти та YouTube-блогери, імена яких не розкриваються.
Проведене розслідування показало, що за три місяці п’ять сайтів, які розміщують подібні відео, зібрали 100 мільйонів переглядів.
Однією з жертв поширення таких відео стала ведуча новин Channel 4 Кеті Ньюман. «Це схоже на насильство. Дуже зловісне почуття від того, що хтось, хто це зібрав, я не бачу їх, а вони можуть бачити таку уявну версію мене, цю фальшиву версію мене», — заявила вона.
На початку березня в соціальних мережах Facebook та Instagram поширилися дипфейки сексуального характеру з використанням обличчя Джени Ортегі. Вони використовувалися в рекламі для просування додатку, який позиціонується як інструмент створення відвертих сексуальних зображень з використанням штучного інтелекту, повідомляє NBC News.
Наприкінці січня у соцмережі Х (колишній Twitter) поширилися порно-дипфейки з Тефлор Свіфт. До того, як ці зображення видалили, їх переглянули 47 мільйонів людей. Здебільшого це були шанувальники співачки, які прагнули заявити про порушення. Але подія стала настільки гучною, що Білий дім назвав її «тривожною», пише The Guardian.
Видання зазначає, що скандал став травмуючим не лише для самої Свіфт, а й для тисяч жінок, які вже пережили подібний досвід. Так, 17-річна зірка фільмів Marvel Сочіл Гомес заявила, що Х не зміг видалити порнографічні дипфейки за її участю. «Вони не мають до мене жодного стосунку, але все ж таки в них моє обличчя», — заявила вона.
Коли активістка та письменниця Лора Бейтс опублікувала свою книгу «Чоловіки, які ненавидять жінок», присвячену дослідженню ненависті до жінок в інтернеті, чоловіки почали надсилати їй зображення, на яких створювалося враження, що вона «вчиняє всі види статевих актів» із ними.
За її словами, дипфейкові порнографічні зображення та відео «абсолютно поширені в екстремістських женоненависницьких спільнотах». Випадок зі Свіфт показує, наскільки далеко може зайти поширення таких зображень і відео в соціальних мережах. «Навіть коли вони потім вживають заходів і заявляють, що закривають його, до цього моменту ці зображення вже поширилися багатьма іншими тисячами форумів та веб-сайтів», — додала Бейтс.
Не лише знаменитості
Активістка та дослідниця Tech & Policy Lab в Університеті Західної Австралії Ноель Мартін також стала жертвою поширення зображень за її участю. Вперше вона побачила, що її обличчя використовується для створення порнографічного контенту 11 років тому.
«У звичайних жінок на кшталт мене не буде мільйонів людей, які захищатимуть нас і допомагатимуть видаляти контент, і ми не матимемо переваги у вигляді великих технологічних компаній, які б цьому сприяли, реагуючи на зловживання», — каже вона.
За словами Мартін, раніше в мережі поширювалися зображення, але з розвитком технологій штучного інтелекту все частіше трапляються відео, які публікуються на порно-сайтах. За її словами, навіть якщо зображення не вирізняється правдоподібністю, воно все одно травмує жінку.
14-річна Франческа Міні з Нью-Джерсі закликала федеральну владу ввести регулювання розповсюдження зображень, створених штучним інтелектом, після того, як у мережі поширилися згенеровані ШІ зображення порнографічного характеру з нею та її однокласницями, пише CNN.
«У цій ситуації були якісь хлопчики чи хлопчик — це потрібно визначити, — які без згоди дівчаток створювали недоречні зображення», — розповіла дівчинка Дорота.
Не лише порнографія
Не всі творці дипфейків мають на меті створити порно-ролики за участю знаменитостей або своїх знайомих. Дуже часто за цим стоять інші мотиви. Найчастіше це один із способів заробляння грошей або просування своїх послуг.
Як пише ВВС, однією з жертв дипфейків став індійський гравець у крикет Сачин Тендулкар. Його зображення використовували для реклами програми онлайн-геймінгу. В опублікованому відео Тендуклар нібито рекламував програму як швидкий спосіб заробити. Після його появи спортсмен повідомив про фейк і заявив про «нестримне зловживання технологіями».
Жертвами дипфейків ставали також індійські актриси Рашміка Манданна, Алія Бхатт, Каджол та Катріна Каїф.
У мережі також поширилася реклама з фейковими зображеннями Пірса Моргана та Опри Вінфрі. Їх використовували для просування курсу самодопомоги сумнівної якості, повідомляє CNN. Реклама із зображенням Вінфрі та Моргана була розміщена на YouTube, Facebook та Instagram.
У деяких випадках зловмисники можуть піти далі, не обмежуючись рекламою. Так, фінансист однієї з мультинаціональних фільм переказав на рахунок зловмисників 25 мільйонів доларів після того, як поговорив із дипфейком головного фінансового офіцера.
Як повідомила поліція Гонконгу, співробітника змусили повірити, що він присутній на відео-зідзвоні з іншими працівниками своєї фірми. Насправді всі вони були фейками, повідомляє CNN.
З подальшим розвитком технологій штучного інтелекту зростає ймовірність того, що подібні відео та фото ставатимуть дедалі правдоподібнішими, а зловмисники знаходитимуть нові способи їх використання.
Нагадаємо, ZN.UA розпочало цикл матеріалів про те, як активно програми штучного інтелекту захоплюють світ. Державні політики, закони, суди, юридична практика, міжнародні організації, вищf освітf, медицина, культура та мистецтво, медіа — це сфери, які вже немислимі без використання ШІ. Які ризики та зворотний бік технологій? Чи мають держави контролювати цю сферу, і якщо так, то наскільки? У першій статті циклу йдеться про державну підтримку та стримування розвитку штучного інтелекту.
Про це у першій та другій частинах статті «Якою має бути державна політика підтримки розвитку та стримування небезпеки штучного інтелекту» розповідає кандидат юридичних наук, адвокат Сергій Козьяков.