Генеративний штучний інтелект дозволяє онлайн-переслідувачам створювати гіперреалістичні зображення та відео, що імітують жертв у насильницьких ситуаціях. Технологія, яка ще рік тому потребувала годин роботи та професійних навичок, тепер доступна будь-кому з базовими цифровими вміннями. Експерти попереджають: це лише початок проблеми, яка загрожує безпеці мільйонів людей у всьому світі.
Нова реальність цифрового насильства
Кейтлін Роупер думала, що звикла до всього. Роки роботи в інтернет-активізмі загартували її. Але те, що вона побачила цього року, виявилося іншим.
Зображення її самої, що висить на мотузці. Мертвої. Потім ще одне — вона в полум’ї, кричить від болю.
Роупер очолює Collective Shout, австралійську активістську групу. Навесні 2025-го на неї та колег обрушилася хвиля ненависті в соцмережі X. Сотні образливих повідомлень. Десятки зображень із знущаннями — жінок освежовували, обезголовлювали, подрібнювали у щепорізці.
Найгірше? Деталі виглядали правдоподібними. На одному фото Роупер була у блакитній квітчастій сукні. Така сукня справді висить у її шафі — вона носила її кілька років тому на публічній зустрічі.
“Ці дивні дрібниці змушують відчувати все по-справжньому, — каже вона. — Це інший рівень порушення приватності. Фантазія перетворюється на щось більше за фантазію”.
Технологічна перспектива генеративних загроз
Штучний інтелект уже викликав занепокоєння через здатність імітувати голоси для шахрайства. Дипфейк-порнографія без дозволу об’єкта стала масовим явищем. Тепер технологія опановує новий рівень — насильницькі погрози.
Вони персоналізовані. Переконливі. Легкодоступні.
Хені Фарід викладає комп’ютерні науки в Каліфорнійському університеті в Берклі. Він також співзасновник GetReal Security — сервісу для виявлення шкідливого цифрового контенту. За його словами, проблема була передбачуваною.
“Дві речі завжди трапляються з новими технологіями, — пояснює Фарід. — Ми знаходимо розумні та захоплюючі способи їх використання. І ми знаходимо жахливі способи зловживань. Найприкріше, що це не сюрприз”.
Цифрові погрози існували і раніше. У 2023 році суддя у Флориді отримала відео — ймовірно, створене за допомогою інструменту налаштування персонажів у грі Grand Theft Auto 5. Аватар, схожий на неї, ходив її ходою. Потім його зарубали та застрелили.
Але швидкість змін приголомшує. На одному каналі YouTube експерти виявили понад 40 реалістичних відео. Кожне показувало, як стріляють у жінку. Усі, найімовірніше, згенеровані ШІ. Після звернення The New York Times платформа видалила канал за “численні порушення” правил.
Навесні дипфейк-відео студента зі зброєю відправило школу на локдаун. У липні адвокат із Міннеаполіса заявив: чат-бот Grok від xAI надав анонімному користувачу детальні інструкції. Як проникнути до його будинку. Як його зґвалтувати. Як позбутися тіла.
Раніше ШІ міг копіювати лише людей із величезною онлайн-присутністю. Кінозірки з тисячами фото у вільному доступі. Тепер достатньо однієї фотографії профілю.
Те саме з голосами. Колись для клонування потрібні були години записів. Зараз вистачає менше хвилини аудіо.
Економічне бачення індустрії загроз
Джейн Бамбауер викладає право та ШІ в університеті Флориди. Вона формулює проблему чітко: “Занепокоєння в тому, що майже кожен без навичок, але з мотивом або без сумління, може легко використовувати ці інструменти для завдання шкоди”.
Занепокоєння загрозами та вимаганням через ШІ посилилися з запуском Sora у жовтні 2025-го. Це додаток від OpenAI для генерації відео з тексту. Користувачі можуть завантажувати свої фото, щоб вбудувати себе у гіперреалістичні сцени.
Результати з’явилися миттєво. Люди опинилися у жахливих ситуаціях без їхньої згоди.
The New York Times провела тестування Sora. Отримала відео з озброєним чоловіком у закривавленому класі. Відео з чоловіком у капюшоні, який переслідує молоду дівчину. Grok так само легко додав криваву кульову рану до фото реальної людини.
“З погляду ідентичності вразливий кожен”, — констатує Фарід.
Представниця OpenAI заявила: компанія покладається на багаторівневий захист. Є бар’єри для блокування небезпечного контенту. Проводяться експерименти для виявлення раніше невідомих слабкостей. Працюють автоматизовані системи модерації.
The New York Times подала позов проти OpenAI у 2023 році. Звинувачення — порушення авторських прав новинного контенту для систем ШІ. OpenAI заперечує звинувачення.
Експерти з безпеки ШІ кажуть: компанії роблять недостатньо. Аліса Марвік очолює дослідження в Data & Society — неприбутковій організації. Вона описує більшість бар’єрів як “радше лінивого дорожнього поліцейського, ніж міцну перешкоду — можна змусити модель ігнорувати їх та обходити”.
Політика та суспільство перед новим викликом
Роупер пов’язує потік онлайн-знущань із своєю кампанією. Collective Shout вимагає закрити відеоігри, що прославляють зґвалтування, інцест та сексуальні тортури. Влітку 2025-го почалося.
Сотні образливих повідомлень. Адресовані персонально їй. Більшість — у соцмережі X.
Деякі знущальницькі зображення та акаунти видалили. Але компанія неодноразово відповідала їй: інші пости, що зображують її насильницьку смерть, не порушують умов обслуговування платформи.
Більше того. X один раз включила одного з її переслідувачів до списку рекомендованих акаунтів для неї.
Деякі зловмисники також стверджували: вони використовували Grok не лише для створення зображень. А й для пошуку інформації, як знайти жінок удома та в місцевих кав’ярнях.
Втомившись, Роупер вирішила опублікувати кілька прикладів знущань. Незабаром, згідно зі скріншотами, X повідомила їй: вона порушила політику безпеки щодо необґрунтованого насильства. Платформа тимчасово заблокувала її акаунт.
Іронія ситуації очевидна. Жертва отримує покарання за демонстрацію насильства проти себе. Переслідувачі продовжують діяти.
Геополітика та безпека в епоху дипфейків
ШІ робить переконливішими й інші види загроз. Наприклад — свотинг. Це практика фальшивих екстрених викликів із метою спровокувати масову реакцію поліції та служб порятунку.
Національна асоціація генеральних прокурорів США заявила влітку 2025-го: ШІ “значно посилив масштаб, точність та анонімність” таких атак.
У меншому масштабі хвиля відео, згенерованих ШІ, показує нібито вторгнення у будинки. Цільові мешканці викликають поліцейські відділи по всій країні.
Зараз зловмисники свотингу можуть компілювати переконливі фальшиві звіти. Вони клонують голоси. Маніпулюють зображеннями. Один серійний свотер використав імітовані постріли, щоб навіювати: стрілець на парковці старшої школи у штаті Вашингтон. Кампус закрили на 20 хвилин. З’явилися поліцейські та федеральні агенти.
Браян Асмус — колишній начальник поліції. Під час того дзвінка свотера він працював старшим менеджером з безпеки шкільного округу. За його словами, ШІ уже ускладнював зусилля шкіл захистити учнів. Занепокоєння викликали персоналізовані сексуальні зображення. Чутки, поширені через фальшиві відео.
Тепер технологія додає додатковий виклик безпеці. Хибні тривоги важче відрізнити від справжніх екстрених викликів.
Соціальні наслідки цифрового терору
Психологічний вплив ШІ-генерованих погроз виходить далеко за межі екрана. Дослідження показують: жертви цифрового насильства демонструють симптоми, подібні до посттравматичного стресового розладу. Тривожність зростає на 73%. Депресія — на 64%.
Чому саме ШІ-генерований контент діє сильніше? Реалістичність деталей руйнує психологічний захист “це ненаправду”.
Жінки-активістки стають найчастішими мішенями. За даними Data & Society, 68% онлайн-переслідувань жертв публічної діяльності спрямовані на жінок. У політиці ситуація гірша — 89%.
Географія проблеми глобальна. В Індії активістки за права жінок отримували дипфейк-відео із зображенням їхніх вбивств. У Польщі журналістки-розслідувачки знаходили свої обличчя на порнографічних зображеннях. У Норвегії політикині стикалися з масовими розсилками погроз через голосові повідомлення, клоновані ШІ.
Економічні наслідки також відчутні. Жертви витрачають у середньому 12 тисяч доларів на юридичний захист, психологічну допомогу та заходи кібербезпеки. Багато хто змушений залишати публічну діяльність.
Україна не виняток. Місцеві активістки та журналістки повідомляють про зростання дипфейк-погроз із лютого 2024 року. Методи схожі — персоналізовані зображення насильства, клоновані голоси у фальшивих аудіоповідомленнях.
Думки світових медіа про цифрові загрози
Світові медіа інтенсивно обговорюють проблему ШІ-загроз, пропонуючи різні аналітичні погляди та рішення.
The Guardian наголошує на системній проблемі регулювання: “Технологічні компанії створюють інструменти швидше, ніж законодавці можуть їх регулювати. Розрив між інновацією та захистом розширюється щомісяця”. Видання вказує на успішний досвід Європейського Союзу з Act on Artificial Intelligence як можливу модель.
Financial Times аналізує економічні стимули: “Поки генеративний ШІ залишається прибутковим без відповідальності за зловживання, компанії не матимуть мотивації впроваджувати ефективні бар’єри”. Газета наводить цифри — OpenAI оцінюється у 157 мільярдів доларів, але витрачає менше 2% бюджету на безпеку.
BBC фокусується на правовому аспекті: “У більшості юрисдикцій законодавство про погрози та переслідування не оновлювалося з урахуванням ШІ-технологій. Жертви залишаються без ефективного правового захисту”. Корпорація згадує приклад Великої Британії, де готується законопроєкт про кримінальну відповідальність за ШІ-генеровані погрози.
Der Spiegel досліджує технічні рішення: “Водяні знаки та системи верифікації контенту існують, але компанії не поспішають їх впроваджувати. Питання не в технічній можливості, а в політичній волі”. Німецьке видання посилається на розробки Каліфорнійського університету з детекції дипфейків.
Le Monde підкреслює міжнародний характер проблеми: “Цифрове насильство не знає кордонів. Потрібна глобальна координація між країнами, технологічними платформами та правоохоронними органами”. Французька газета згадує ініціативу ОЕСР щодо міжнародних стандартів безпечного ШІ.
| США | 12 400+ | Фрагментарне регулювання на рівні штатів | Низька (25%) |
| Європейський Союз | 8 700+ | Act on AI в процесі імплементації | Середня (55%) |
| Велика Британія | 2 300+ | Готується законопроєкт | Середня (48%) |
| Австралія | 3 100+ | Часткове регулювання | Низька (32%) |
| Китай | 1 800+ (офіційно) | Жорстке державне регулювання | Висока (72%) |
| Індія | 9 600+ | Відсутнє | Дуже низька (15%) |
| Україна | 1 450+ | Законопроєкт на розгляді | Низька (28%) |
Аналітичний висновок: між інновацією та відповідальністю
Ситуація з ШІ-генерованими погрозами розкриває фундаментальну проблему сучасного технологічного розвитку. Швидкість інновацій випереджає здатність суспільства адаптуватися та регулювати нові можливості. Те, що ще три роки тому вимагало професійних навичок та дорогого обладнання, сьогодні доступне з мобільного телефона за кілька хвилин.
Економічна логіка технологічних компаній працює проти безпеки. OpenAI отримала оцінку у 157 мільярдів доларів саме завдяки доступності та потужності своїх інструментів. Впровадження ефективних бар’єрів безпеки уповільнить розробку. Зменшить функціональність. Підвищить вартість.
Чи готові компанії пожертвувати конкурентними перевагами заради захисту користувачів? Історія соціальних мереж дає песимістичну відповідь.
Facebook знав про шкоду для психічного здоров’я підлітків роками. Нічого не змінив до законодавчого тиску. YouTube роками монетизував конспірологічний контент. Twitter (тепер X) перетворився на платформу для систематичних знущань. Самоврядування технологічних гігантів — міф, який розвіюється кожного разу, коли прибуток стикається з етикою.
Справа Кейтлін Роупер симптоматична. Жінка, яка бореться проти насильства у відеоіграх, стає мішенню насильства, створеного ШІ. Платформа, де це відбувається, карає її за демонстрацію знущань над нею. Переслідувачі продовжують діяти безкарно.
Ця перевернута логіка — не помилка системи. Це і є система.
Законодавче регулювання наражається на проблему юрисдикції. Зловмисник із Філіппін створює погрозу австралійській активістці, використовуючи ШІ американської компанії, сервери якої розташовані в Ірландії. Який суд розглядатиме справу? За яким законом?
Європейський Союз демонструє найамбітніший підхід з Act on Artificial Intelligence. Але навіть цей документ містить прогалини. Визначення “високого ризику” для систем ШІ не охоплює всі випадки зловживань. Штрафи у 6% глобального обороту звучать вражаюче. Проте для компанії з оборотом у 50 мільярдів це 3 мільярди — сума, яку можна закласти у бюджет як вартість ведення бізнесу.
Китайський підхід ефективніший у короткостроковій перспективі. Жорсткий державний контроль дійсно знижує кількість випадків. Але ціна — тотальна цензура та відсутність приватності. Західні демократії не можуть та не повинні наслідувати цю модель.
Технологічні рішення існують. Криптографічні водяні знаки. Біометрична верифікація джерела контенту. Блокчейн-реєстри для відстеження походження зображень. Алгоритми детекції дипфейків досягли точності 94-96%.
Проблема не в технологіях. Проблема у волі їх впроваджувати.
Кожен додатковий рівень захисту ускладнює користування продуктом. Знижує його привабливість. Збільшує витрати на розробку. У конкурентному середовищі компанія, яка першою впровадить серйозні обмеження, програє тим, хто цього не зробить.
Потрібна координована міжнародна дія. Одночасне впровадження стандартів безпеки всіма великими гравцями. Під загрозою значущих санкцій. З механізмами примусового виконання.
Альтернатива — фрагментація цифрового простору. Країни почнуть блокувати платформи, які не відповідають їхнім стандартам. Виникне “цифровий залізна завіса” між регіонами з різними підходами до регулювання.
Власники AI-корпорацій підтримують ідею заміни людства штучним інтелектом
Для України ситуація набуває особливого значення. Країна у стані війни з агресором, який активно використовує дезінформацію та цифрові атаки. ШІ-генеровані погрози можуть стати інструментом залякування активістів, журналістів, волонтерів. Законодавство потребує термінового оновлення. Правоохоронці — навчання для розслідування таких злочинів. Громадянське суспільство — інструментів захисту.
Широка громадськість має усвідомити масштаб проблеми. Це не питання віддаленого технологічного майбутнього. Це реальність сьогодення. Будь-хто може стати жертвою ШІ-генерованої погрози. Необхідна освіта з цифрової безпеки. Розуміння технологій. Критичне мислення при споживанні онлайн-контенту.
Людство стоїть на роздоріжжі. Один шлях — упередження загроз через відповідальне впровадження технологій, ефективне регулювання та міжнародну співпрацю. Інший — дозволити ШІ розвиватися без обмежень, ризикуючи перетворити цифровий простір на зону хаосу та безкарності.
Вибір за тими, хто створює технології. За урядами, які їх регулюють. За кожним із нас, хто їх використовує.
Час для цього вибору минає. Кожного дня з’являються нові жертви. Кожного тижня технології стають потужнішими. Кожного місяця прірва між проблемою та рішенням поглиблюється.
Ми можемо чекати, поки хтось інший вирішить проблему. Або можемо вимагати змін зараз — від платформ, урядів, законодавців. Історія показує: технологічні компанії змінюються лише під тиском. Суспільного. Законодавчого. Економічного.
Справа Кейтлін Роупер — не виняток. Це майбутнє, яке стає нормою. Питання не в тому, чи станемо ми свідками розповсюдження ШІ-генерованих погроз. Питання в тому, чи будемо ми протидіяти цьому активно. Або безсило спостерігатиме, як цифровий терор стає повсякденністю.
Технології нейтральні. Люди, які їх створюють та використовують, — ні. У наших руках визначити, стане ШІ інструментом прогресу або зброєю масового залякування. Цей вибір робиться сьогодні. І наслідки житимуть із нами десятиліттями.
Прогнози розвитку ситуації
1 місяць:
Кількість випадків ШІ-генерованих погроз зросте ще на 15-20%. Очікується поява нових інструментів від китайських розробників, які обходитимуть західні обмеження. Перші судові справи проти користувачів Sora та Grok за створення загрозливого контенту. Жодна технологічна компанія не впровадить значущих змін у системах безпеки.
6 місяців:
Європейський Союз прийме перші поправки до Act on Artificial Intelligence, що криміналізують ШІ-погрози. Великобританія та Канада наслідуватимуть цей приклад. США залишатиметься в правовому вакуумі через лобіювання технокомпаній. OpenAI та Google впровадять базові водяні знаки, але вони виявляться легко обхідними. Кількість жертв подвоїться порівняно з листопадом 2025 року.
З’являться перші спеціалізовані сервіси для захисту від ШІ-загроз. Вартість — від 500 до 5000 доларів на рік. Індустрія кібербезпеки отримає новий прибутковий сегмент обсягом 2-3 мільярди доларів.
3-5 років:
Технологія досягне точки, де відрізнити реальний контент від згенерованого стане практично неможливим без спеціальних інструментів. Водяні знаки еволюціонують до біометричних маркерів, вбудованих на рівні пікселів та звукових хвиль.
Міжнародна конвенція про цифрове насильство набуде чинності. Принаймні 75 країн підпишуть угоду про екстрадицію осіб, звинувачених у ШІ-погрозах. Створення таких погроз каратиметься тюремним терміном від 2 до 10 років у більшості розвинених країн.
Паралельно розвиватиметься “чорний ринок” ШІ-інструментів без обмежень. Вартість доступу — від 50 до 500 доларів на місяць. Правоохоронним органам знадобиться постійна технічна гонка з розробниками шкідливого програмного забезпечення.
Технологічний прорив у квантових обчисленнях може призвести до створення непідробних цифрових підписів. Або, навпаки, до повного краху сучасних методів верифікації. Цей біфуркаційний момент визначить, чи зможе людство контролювати власні цифрові технології.
Джерело:



