Фабрика АІ-пропаганди, або Як звичайний ноутбук перетворюється на зброю масового впливу
Дослідник Лукаш Олейник з Королівського коледжу Лондона провів дослідження «AI Propaganda factories with language models», у якому спробував оцінити практичну здійсненність ведення інформаційних війн на побутовому обладнанні. Тобто на власному ноутбуці з використанням безкоштовних мовних моделей АІ.
Він та група дослідників зі сфери штучного інтелекту й інформаційної безпеки довели, що нині створити «фабрику пропаганди» дуже дешево і легко. Якщо раніше, щоб організувати масову кампанію дезінформації, потрібні були цілі офіси та «фабрики тролів», то тепер кільком людям достатньо встановити на звичайному ноутбуці безкоштовні відкриті мовні моделі та програми з АІ. І буквально одразу вони отримують армію ботів, які виглядають і звучать як справжні люди.
У своєму дослідженні вчені вирішили перевірити, як працюють такі «персони»-боти у справжніх дискусіях. Для цього вони використали платформу ChangeMyView, одне з найвідоміших місць в інтернеті, де люди сперечаються й намагаються переконати одне одного.
Як приклад дослідники використовували моделі Gemma-3 (27B) та Mistral-Small (24B), які не потребують хмарної інфраструктури. Вони можуть працювати на високопродуктивних споживчих GPU (NVIDIA RTX 4090 і вище).
Зміст згенерованого контенту значно більше залежав від дизайну «цифрової особистості» та її тонкого налаштування (персони), ніж від самої моделі.
Під час експерименту не було зафіксовано жодного відмовлення від виконання завдання серед 11 520 згенерованих та оцінених відповідей. АІ-персони стабільно підтримували заданий стиль, тон і політичну позицію (медіанний показник PF – 4,1–4,3 із 5).
Дослідження показало, що контроль якості контенту на виході можна здійснювати без участі людей-редакторів. Для цього локально розгортається «шеф-редактор» на базі Qwen3 (30B).
Створені таким чином моделі були здатні імітувати «персон». Тобто ботів із конкретним характером – агресивним, іронічним чи емпатичним. Ці боти були здатні вести дискусії, відповідати на аргументи, послідовно відстоювати позицію й навіть радикалізуватися, коли його «провокують».
Боти писали відповіді так природно, що відрізнити їх від справжніх людей було майже неможливо. Більше того, кожен бот чітко тримав свою роль. Якщо він був «саркастичним опонентом», то сарказм пронизував усі його репліки. Якщо «емоційною матір’ю», то всі відповіді були теплими й співчутливими. І це тривало не два-три коментарі, а протягом довгої розмови.
Але найбільше дослідників вразило інше. Коли такі боти починали сперечатися з опонентами, їхні повідомлення ставали значно жорсткішими. Дослідники порахували: частка радикальних і відверто екстремістських меседжів зростала з 40–60% до майже 80%. Іншими словами, що довше триває суперечка, то радикальнішими стають «штучні співрозмовники».
Ці цифри повинні змусити замислитися не лише експертів з кібербезпеки, а й політиків, журналістів та звичайних громадян. Адже йдеться про нову реальність, де під маскою «сусіда з коментарів» вже ховається не представник спецслужб, чи «студент-троль», а алгоритм, який методично підштовхує нас до крайніх емоцій і рішень.
ЯК ПРАЦЮЄ ФАБРИКА АІ-ПРОПАГАНДИ НА ПОБУТОВОМУ ОБЛАДНАННІ
Щоб зрозуміти, чому це така серйозна загроза, треба чітко уявити етапи створення та роботи подібної системи. І найголовніше – усвідомити, що усе це робиться не в секретних лабораторіях, а на звичайному комп’ютері. Доступному будь-кому. Тож розглянемо, як крок за кроком ви можете створити власну «фабрику ботів».
По-перше, завантажується відкрита модель.
У відкритому доступі вже є десятки потужних програм, які можна безкоштовно скачати й запустити на власному комп’ютері. Вони не вимагають спеціальних знань чи дорогого обладнання, достатньо стандартного ноутбука. Популярні – відкриті моделі Mistral, LLaMA, Gemma, Qwen, де кожен охочий може встановити їх так само, як програму для редагування текстів чи фото.
По-друге, налаштовуються «персони».
Це ключовий момент. Користувач визначає, яким буде характер віртуального співрозмовника: агресивним критиком, саркастичним опонентом, емпатичною матір’ю військового чи холодним аналітиком. І далі модель починає вести діалог саме в цьому стилі, не збиваючись з ролі.
По-третє, запускається масове створення повідомлень.
На відміну від людини, штучний інтелект не втомлюється і не обмежений у швидкості. Він може генерувати сотні коментарів чи постів за хвилину. Причому кожен виглядатиме унікальним, написаним «живою людиною». Тож завядки вам у Facebook-групі про війну може з’явитися десяток «користувачів», де у кожного буде своя манера мови. Але всі просувають потрібний наратив (наприклад, що «влада нас зрадила»).
По-четверте, відбувається автоматичний відбір найкращих текстів.
Те, що раніше робили редактори чи «куратори фабрик тролів», тепер робить ще одна АІ-модель. Друга модель, яку ви створили і запустили на цьому ж ноутбуці, оцінює якість повідомлень. Чи витримано стиль «персони»? Чи достатньо текст переконливий? Чи здатний він викликати реакцію в читача (лайки, коментарі, репости)?
У результаті з сотень сирих текстів публікуються лише найбільш «влучні». І як результат – найкращі 20 коментарів із 200 згенерованих ідуть у «масовий мережевий обіг».
По-п’яте, система сама публікує повідомлення в соцмережах.
Для цього використовуються заздалегідь створені акаунти. Вони мають фото, короткі біографії, історію постів. На вигляд це звичайні користувачі, але насправді – лише оболонки, за якими ховається програма, яка автоматично пише повідомлення, коментує, ставить лайки, робить репости й підтримує «активність» сторінки.
По-шосте, боти починають взаємодіяти з людьми й між собою.
Найбільший ефект досягається тоді, коли вони відповідають не на новини, а на коментарі інших користувачів. У дослідженнях доведено: саме в дискусіях «персони» стають радикальнішими, жорсткішими та емоційно сильнішими. Найсильніший ефект настає тоді, коли боти починають відповідати на коментарі опонентів. У дослідженні на arXiv показано: в такому режимі боти стають радикальнішими і переконливішими, ніж коли пишуть просто «у порожнечу».
По-сьоме, фабрика імітує природну дискусію.
Частина ботів підтримує «жертву», інша нападає, третя удає нейтральних спостерігачів. Для стороннього ока це виглядає як жива розмова різних людей з різними поглядами. Насправді ж усі вони працюють на одну й ту саму ціль. Наприклад, у треді Reddit можна побачити, як один користувач пише дуже розумно, інший емоційно його підтримує, третій саркастично добиває опонента. Насправді всі троє – частини однієї системи, яка керується з одного центру.
І нарешті, по-восьме – уся система працює повністю автономно.
Людина практично не бере участі в процесі. Програма сама генерує, відбирає, поширює повідомлення й навіть підтримує діалоги. Вона не спить, не зупиняється і не вимагає зарплати. Це фабрика, яка може працювати цілодобово, створюючи ілюзію активного суспільного життя там, де його насправді немає. Тож декілька ноутбуків можуть забезпечити сотні активних акаунтів, які «живуть» у соцмережах, пишуть, відповідають і навіть між собою сперечаються, створюючи повну ілюзію реальної спільноти.
У результаті ми отримуємо небезпечний феномен, коли декілька ноутбуків і група технічних ентузіастів можуть створити «армію ботів», здатних впливати на громадську думку, розгойдувати суспільство, деморалізувати військових і навіть підривати довіру до виборів чи державних інституцій.
Це і є головна небезпека, бо будь-яка невелика група може створити власну армію пропагандистів-«аватарів», і зупинити їх без спеціальних методів дуже складно.
ВПЛИВ НА ХІД ВІЙНИ З РОСІЄЮ
У нашій війні з Росією інформаційний фронт не менш важливий за військовий. І тут АІ-боти стають новою зброєю, яка або деморалізовуватиме військових і суспільство, або точково битиме у болючі теми.
Те саме стосується і майбутніх виборів. Якщо така технологія буде використана, наслідки можуть бути катастрофічними. Наприклад, можна буде згенерувати «фальшивий консенсус», коли кілька сотень ботів-«персон» створять ілюзію, що суспільство масово підтримує певного кандидата чи ідею. Люди, які читають коментарі, сприйматимуть це як «думку більшості».
Або ж радикалізувати дискусії, коли боти навмисно підштовхуватимуть розмови до крайніх позицій: «усі політики – зрадники», «система не працює», «нема сенсу голосувати».
Ну і звісно, маніпуляція емоціями. Замість фактів боти працюватимуть через образи та наративи: «тих, хто воював, зрадили», «ваш голос нічого не вирішує», «краще вибори бойкотувати».
ПАТЕРНИ ДЛЯ ВИЯВЛЕННЯ АІ-БОТІВ
Але є й гарні новини – вчені запропонували ознаки та характеристики, які дозволяють виявити ботів.
► Непохитна ідеологічна позиція
Умовна «ультраправа АІ-персона» використовує різку й прямолінійну риторику в темах економіки чи політики, не допускаючи жодних відхилень від своєї лінії. Такий бот ніколи не скаже: «Це складне питання, я не впевнений», і не погодиться з опонентом навіть у дрібницях.
► Однакова структура речень
Відповіді мають усереднену довжину, часто повторюються одні й ті самі риторичні прийоми.
► Часові патерни
Пости з’являються з дивною регулярністю вдень і глибокої ночі, без «перерв на сон». У складних дискусіях АІ-агент видає структурований текст на 300 символів буквально за секунди після коментаря опонента, коли часу на осмислення просто не залишається.
► Тест на особистий досвід
Якщо поставити боту одне й те саме питання різними словами з інтервалом у кілька днів, він із великою ймовірністю дасть практично ідентичну відповідь за змістом. Людина ж пам’ятатиме попередню розмову і відповість інакше, можливо навіть з емоцією чи роздратуванням.
► Запит про унікальний особистий досвід
Наприклад: «Який найяскравіший спогад з дитинства, пов’язаний із дощем?». АІ або відмовиться відповідати, або створить узагальнену, стереотипну фразу. Унікальних деталей, характерних для людської пам’яті, він не відтворить.
► Координація ботів
Один акаунт починає суперечку, а через кілька секунд чи хвилин у коментарях з’являються ще 3–10 акаунтів, які підхоплюють тему і «підсилюють» аргументи, діючи за єдиним сценарієм. Це нагадує атаку «рою бджіл».
ЗАМІСТЬ ВИСНОВКІВ
Дослідження наочно показує: сьогодні створити фабрику пропаганди можна на звичайному комп’ютері. Це створює нові ризики для інформаційної безпеки, виборів і суспільної довіри. Щоб протидіяти цій загрозі, потрібно, щоб Держава напрацювала чіткі правила використання АІ у політичних процесах. Журналісти й аналітики мають навчитися виявляти ознаки автоматизованих кампаній і пояснювати їх громадянам. Соціальні платформи повинні вдосконалювати інструменти для відстеження підозрілої активності. А самі користувачі мають критично ставитися до інформації в коментарях і пам’ятати, що не всі «співрозмовники» в мережі є реальними людьми. Це не привід для паніки, але це нагадування, що Інформаційний світ змінився назавжди.

Віктор Таран, експерт з оборонних та військово-технічних інновацій, спеціалізується на безпілотниках та кібербезпеці
* Точка зору автора може не збігатися з позицією агентства