Польські посадовці стверджують, що TikTok не впровадив необхідних інструментів для регулювання контенту, що згенерований штучним інтелектом
Заступник очільника міністерства цифровізації Польщі Даріуш Стандерський закликав Європейську комісію ініціювати розслідування проти TikTok через масштабне розповсюдження контенту, згенерованого штучним інтелектом, із закликами до виходу держави з ЄС. Про це інформує «Главком», посилаючись на заяву чиновника.
Згідно зі словами Стандерського, відеоролики, що циркулюють у польському сегменті платформи, мають ознаки узгодженої кампанії з дезінформування. Він підкреслив, що цей контент несе загрозу громадському порядку, інформаційній безпеці та недоторканності демократичних процесів у Польщі та ЄС.
«Наявна інформація показує, що TikTok не застосував необхідних інструментів для регулювання контенту, створеного штучним інтелектом, а також не забезпечив дієвих заходів прозорості стосовно походження цих матеріалів, що компрометує цілі Закону про цифрові послуги (DSA) щодо запобігання дезінформації та захисту користувачів», – сказав він.
Польська сторона пропонує Європейській комісії зобов’язати TikTok надати розгорнутий звіт про обсяги та характер розповсюдженого контенту, його досягнення та вжиті дії для усунення та недопущення подальшого поширення, а також розглянути можливість застосування тимчасових заходів, націлених на обмеження циркулювання аналогічного контенту.
Прессекретар польського уряду Адам Шлапка заявив, що поширені відео є російською дезінформацією. Він зауважив, що ця кампанія «зовсім не сумісна з інтересами Польщі, і на 100 відсотків відповідає російським інтересам».
Варто зазначити, штучний інтелект швидко впроваджується в оборонні системи, однак його роль у ядерному стримуванні викликає значне занепокоєння експертів. Як повідомляє «Главком», посилаючись на впливовий журнал Foreign Affairs, технології генерації контенту та автоматизованого аналізу даних можуть стати поштовхом до ненавмисного ядерного конфлікту через ризик створення неправдивої інформації та помилкових сигналів тривоги.
Основна небезпека полягає в здатності ШІ вводити в оману осіб, які ухвалюють стратегічні рішення. Нинішні алгоритми вже мають можливість для маніпулювання вищим військовим керівництвом, створюючи ілюзію атаки там, де її насправді немає.
