Штучний інтелект і нова війна обману: Уроки з України
Нещодавно вашингтонський аналітичний центр New America опублікував дослідження “The Future of Deception in War: Lessons from Ukraine”. У ньому аналітики Future of Security аналізують, як війна проти України змінила саме поняття військового обману.
На думку авторів, сучасний deception перестав бути лише інструментом пропаганди, перетворившись на комплексну технологічну дисципліну, у якій дезінформація, кібероперації та штучний інтелект діють як єдина система.
Зокрема штучний інтелект, дрони й сенсорні системи докорінно змінили розуміння deception – від маскування позицій до створення хибної картини реальності в інформаційному й тактичному просторі.
І нині російсько-українська війна стала головним полігоном цього нового типу протистояння. Москва поєднала інформаційні, технічні та психологічні операції у спільний контур. Уже на початку вторгнення російські медіа поширювали відео з “українськими обстрілами цивільних”, які були зняті задовго до війни, у Сирії чи на Донбасі, але змонтовані під реальні події.
Такі матеріали поширювалися через Telegram і проросійські мережі буквально за години після обстрілів, створюючи ілюзію «доказів». Українські OSINT-групи неодноразово виявляли підробки: відео мало метадані з інших локацій, тіні та звуковий фон не збігалися. Це була не просто пропаганда, а намагання керувати поведінкою противника і населення, спрямована на дестабілізацію довіри до фактів.
Інший приклад – це серія фейкових відеозаписів нібито “здачі” українських гарнізонів, створених за допомогою генеративного ШІ. Кілька таких deepfake-записів у 2022 році з’явилися на зламаних телеканалах і сайтах місцевої влади. Ціль була проста – викликати паніку і підірвати довіру до командування.
На технічному рівні deception намагався маніпулювати технічними даними. Росія активно використовувала GPS-спуфінг для створення фальшивих супутникових сигналів, що дезорієнтували дрони або навігаційні системи. Такі зони фіксувались у Чорному морі, на підходах до Криму та на лінії фронту в Запорізькій області.
Безпілотники отримували хибні координати й “зміщувалися” на десятки кілометрів.
Інша форма – це sensor spoofing, коли радіосигнали імітували присутність техніки, якої не існує. У кількох випадках українські підрозділи фіксували “сліди” дронів, що зникали одразу після відправки перехоплювача. Мета таких операцій була змусити противника витратити ресурси, відкрити позиції або змінити напрямок удару.
Такі операції змушували українські війська витрачати ресурси на перевірку фальшивих цілей. Подібні технології засновані на простих алгоритмах, але їхня ефективність підвищується саме завдяки штучному інтелекту, який дозволяє швидко генерувати хибні сигнали у великій кількості. New America називає це «цифровим маскуванням» або сучасною формою камуфляжу, що діє не на зір, а на сенсори та аналітичні системи.
Не менш важливим фронтом стала дезінформація про мобілізацію та втрати. Восени 2023 року у російських і проросійських Telegram-каналах одночасно поширювалися сотні повідомлень про “таємні накази Генштабу” чи “масову мобілізацію студентів”. Усі ці документи мали реалістичне форматування, QR-коди й підписи, але виявлялися синтетичними. Аналіз метаданих показував, що більшість створені генеративними моделями за єдиним шаблоном. Це класичний приклад AI, орієнтованого не просто на фейк, а на кампанію, яка адаптує наратив у реальному часі. До речі, фейкові відео про нібито злочини ТЦК росіяни генерують і надалі, поширюючи їх через Телеграм-канали чи Тік-Ток.
Особливо масштабно обман застосовувався перед атаками на енергетичну інфраструктуру. Напередодні масованих обстрілів російські ресурси поширювали фейки про “відключення світла через помилки диспетчерів” або “диверсії українських військових”. Це формувало фон недовіри до державних повідомлень і знижувало готовність населення реагувати на реальні загрози. New America у своєму звіті наголошує, що такі операції поєднують когнітивний і технічний вплив. Де спочатку змінюється сприйняття, потім завдається фізичний удар. Український досвід показав, що сучасна війна не починається з артилерійського залпу, а з інформаційного шуму.
Тож АІ став не лише інструментом, а головним каталізатором цих процесів і середовищем, у якому ведеться війна обману. Генеративні моделі створюють синтетичні зображення, голоси та повідомлення, які важко відрізнити від справжніх. За лічені хвилини можна виробити десятки варіантів фейкових новин чи «витоків» розвідданих. Військові експерти фіксували, що за одну добу можна створити понад сто варіантів фейкових повідомлень, адаптованих під різні аудиторії від українських військових до західних журналістів.
Алгоритми машинного навчання дозволяють налаштовувати контент під конкретні аудиторії, що дає змогу ворогу діяти точково, підриваючи довіру до офіційних джерел і рішень командування. Штучний інтелект, який мав допомагати аналізувати дані, перетворюється на засіб створення хаосу в їхньому сприйнятті.
Квантові обчислення є додатковим і ускладнюючим чинником. Вони здатні швидше, ніж традиційні системи, проводити симуляції, розшифровувати перехоплені сигнали й виявляти штучні інформаційні патерни.
Це все зробило дезінформацію масовою і масштабованою, а головне – дешевою. Якщо у 2014 році кампанії потребували команд аналітиків, то тепер їх виконує алгоритм.
Паралельно з цим зростає вразливість самих систем штучного інтелекту. Його можна обдурити, маніпулюючи даними сенсорів, підробленими сигналами або шаблонами, створеними з урахуванням базових алгоритмічних припущень системи.
Алгоритми розпізнавання цілей або аналізу супутникових знімків можна ввести в оману за допомогою adversarial-атак тобто невидимих для людини цифрових змін у зображенні, які змушують ШІ “бачити” неіснуючу техніку.
Уявна ціль може бути класифікована як справжня, а реальна – проігнорована. У лабораторних тестах такі атаки спрацьовували в понад половині випадків. Це відкриває простір для маніпуляцій: ворог може цілеспрямовано спотворювати навчальні дані чи підмінювати телеметрію, щоб викликати хибні рішення в системах наведення або плануванні операцій.
Подібні методи уже тестувалися в оборонних лабораторіях США та ЄС. Для України це не теорія: були зафіксовані спроби підміни телеметрії дронів і маніпуляції потоками відео, коли аналітичні системи отримували підроблені сигнали про “влучання” чи “знищення цілі”. У таких умовах перевірка достовірності даних стає не менш важливою, ніж перевірка координат.
На цьому тлі Україна стала однією з небагатьох країн, які практично застосовують контрдезінформаційні підходи. Створено механізми багаторівневої верифікації даних: від аналізу зображень і метаданих до перехресної перевірки з розвідкою. У військових структурах формуються робочі групи, що поєднують фахівців з OSINT, кібербезпеки та психологічних операцій. Їхнє завдання – це перевірка інформації в реальному часі: виявлення підроблених відео, ідентифікація ботмереж, аналіз динаміки вкидів у Telegram чи TikTok.
Такі команди здатні не лише розпізнавати обман, а й прогнозувати його, виявляючи аномальні інформаційні хвилі, які свідчать про підготовку чергової кампанії. На практиці це дозволяє зменшити вплив фейкових «новинних вибухів» і приймати рішення на основі перевірених джерел. Це, за оцінкою New America, одне з головних досягнень України – перехід від реакції до активного управління інформаційною безпекою.
З досвіду України та висновків аналітиків New America можна виокремити кілька конкретних рекомендацій.
По-перше, необхідно розробити стандартизовані SOP (Standard Operating Procedures) для перевірки інформації в бойових умовах: алгоритм швидкої оцінки достовірності фото, відео чи координат до ухвалення рішень.
По-друге, важливо створювати окремі підрозділи counter-deception – міждисциплінарні групи, які б відповідали за ідентифікацію та нейтралізацію інформаційних пасток.
Третє – використання самого ШІ для захисту системи, з допомогою котрого розпізнають синтетичний контент або виявляють аномалії в потоках даних, або виявляють ознаки фальсифікації сенсорних даних.
І четверте – інтеграція теми deception у навчальні програми офіцерів і командирів, щоби здатність розпізнавати обман стала частиною військової компетенції, а не факультативом.
Наразі АІ стає не лише допоміжним інструментом, який має покращити життя людей, а й повноцінним видом зброї. Він зробив дезінформацію дешевшою і швидшою, але він же може стати інструментом її викриття. Тож він – одночасно щит і меч.
Головне – визнати, що боротьба за правду більше не ведеться лише у медіа. Вона точиться у нейромережах, у даних сенсорів і в алгоритмах, які визначають, що вважати реальністю. І хто навчиться перевіряти цю реальність швидше за ворога, той матиме перевагу у війнах майбутнього.
Україна першою пройшла через це випробування, поєднавши технології, аналітику й критичне мислення. Тепер завдання – не просто захищатися від обману, а навчити союзників, як його розпізнавати.

Віктор Таран, експерт з оборонних та військово-технічних інновацій, спеціалізується на безпілотниках та кібербезпеці
Заглавна ілюстрація - приклад картинки, згенерованої ШІ
* Точка зору автора може не збігатися з позицією агентства
реклама