Нова зброя впливу, або Як Пентагон використовує АІ для інформаційно-психологічних операцій (PSYOP)
Пентагон починає ведення широкомасштабної діяльності та спецоперацій із психологічного та інформаційного впливу, використовуючи генеративний штучний інтелект. До такого висновку прийшли аналітики RAND Corporation у звіті під назвою «Придбання генеративного штучного інтелекту для покращення впливових операцій Міністерства оборони США».
У звіті зазначається, що генеративний АІ здатен радикально змінити підхід Пентагону до впливу на думки, емоції й поведінку цільової аудиторії як у зонах бойових дій, так і в умовах стратегічної конкуренції.
Дослідження свідомо зосереджене лише на генеративному АІ як окремій підкатегорії серед усіх видів штучного інтелекту і виключно в контексті influence activities, тобто діяльності з впливу. Автори не аналізують ширше – АІ інформаційні чи кібероперації, котрі часто плутаються з психологічними.
ЩО ТАКЕ ГЕНЕРАТИВНИЙ АІ І ЯК ВІН УЖЕ ПРАЦЮЄ?
Генеративний штучний інтелект – це тип АІ, який не просто аналізує чи класифікує дані, а створює новий додатковий контент на його основі. Наприклад, текст, зображення, аудіо, відео чи навіть програмний код. Умовно кажучи, це інструмент, який імітує людську творчість, працюючи на основі вхідних запитів.
Технології генеративного АІ вже сьогодні стали частиною цифрової реальності. Наприклад, ChatGPT від OpenAI – це модель, яка може відповідати на запитання, писати, сценарії або вести діалог, як людина. Їй подібні – Claude від Anthropic, Gemini від Google, а також вузькоспеціалізовані інструменти на кшталт GitHub Copilot, який допомагає писати програмний код.
У візуальній сфері генеративний АІ також стрімко прогресує. DALL·E, Midjourney та Stable Diffusion генерують зображення за описом: від сюрреалістичних ілюстрацій до фотореалізму. Програми на кшталт Runway чи Pika Labs уже вміють створювати відео, а ElevenLabs – точно відтворювати або клонувати голос людини.
Дослідники припускають, що у Пентагоні бачать великі перспективи в застосуванні генеративного АІ не лише для створення дипфейків або проведення пропагандистських кампаній. Сценарії використання АІ в умовах психологічної війни дуже різноманітні, однак у центрі більшості з них – дезінформація, обман, маніпуляції та підрив морального стану противника.
Такі операції визначаються як «усвідомлені спроби вплинути на думки, емоції або поведінку окремої людини чи групи людей» на оперативному, стратегічному чи індивідуальному рівнях.
Згідно з визначенням, діяльність із впливу – це «свідомі спроби впливати на думки, почуття або поведінку людини чи групи». Застосування АІ в цій сфері вважається перспективним не лише як засіб швидкого створення контенту, а й як аналітичний інструмент для вивчення цільової аудиторії, моделювання її реакцій та ефективнішого планування операцій. Зокрема, він також буде використовуватись як інструмент OSINTу для збору унікальної інформації задля ефективного планування різнопланових операцій.
ВІСІМ ПРИКЛАДІВ ЗАСТОСУВАННЯ ТЕХНОЛОГІЇ
Створення зображень і відео з потрібною деталізацією та точністю. Генеративний АІ вже показав свою ефективність у створенні текстів, графіки та відео. Найбільш відстає поки що генерація оригінального аудіоконтенту.
Робота в обмежених умовах. Навіть невеликий підрозділ має мати можливість створювати базовий контент з допомогою окремого ноутбука або блокнота. При цьому наголошується, що тактичні групи мають отримати можливість створювати аудіо, відео, зображення й текст прямо в польових умовах, використовуючи мінімальні ресурси від створення дипфейків і пропагандистських повідомлень до персоналізованої дезінформації та реального аналізу аудиторії. Після підключення до Інтернету цей контент можна буде оперативно поширити.
Персоналізовані повідомлення. Ідентифікація спільників бойовиків у людських мережах із подальшою адресною розсилкою повідомлень, які апелюють до конкретних індивідуальних рис і стимулюють до участі в програмах дерадикалізації. Наприклад, здатність клонувати голоси для передавання повідомлень дозволить імітувати голос командира противника, щоб домогтися капітуляції підрозділу.
Швидше виробництво контенту. Генеративний АІ дозволяє значно прискорити створення контенту, фактично «вирівнюючи» сили на інформаційному полі бою. Невелика кількість військових зможе оперативно створювати великий обсяг продукції.
Клонування голосів ворожих командирів. Особливо на тактичному рівні, це дозволяє передавати фальшиві накази або провокувати дезорієнтацію ворога.
Управління інформаційними потоками. АІ може інтегрувати численні джерела даних і надавати командирам та офіцерам інформаційної війни чітке уявлення про ситуацію на полі бою.
Синхронний або майже синхронний переклад людської мови. Перехоплення переговорів і переклад у реальному часі підвищить ефективність взаємодії США з союзниками, наприклад, під час операцій із забезпечення свободи навігації.
Швидкий переклад складних текстів. Підрозділи, що працюють із партнерами, можуть стикатися з іноземними технічними документами (французькою, німецькою, корейською). АІ дозволить оперативно перекладати сотні сторінок на англійську, а потім на мову країни-партнера НАТО.
США, КИТАЙ, РОСІЯ – ПЕРЕГОНИ НА ВИЖИВАННЯ
Окремий акцент у звіті RAND зроблено на глобальному контексті, вказуючи на використання генеративного АІ у протистоянні в інформаційній війні. Зі зростанням технологічних потужностей Китаю та Росії, генеративний АІ може стати ключовим фактором не просто локальних операцій, а боротьби за вплив на масову свідомість у світовому масштабі.
Зокрема, Китай не приховує своїх амбіцій у сфері АІ. Держава активно розвиває екосистему національних моделей, просуває їх у країнах Глобального Півдня та використовує для формування альтернативного інформаційного порядку денного. Пекін поєднує комерційні АІ-платформи з урядовими наративами, створюючи гібридну модель пропаганди.
Росія, зі свого боку, акцентує на хаотичному, агресивному стилі впливу, широко використовуючи ботоферми, дипфейки, фейкові акаунти в соцмережах і деструктивні кампанії у вразливих країнах. І хоча технічні можливості РФ значно поступаються китайським або американським, її методи часто менш формалізовані, але більш відчайдушні і гнучкі, що дозволяє отримувати короткострокові виграші у нестабільних регіонах.
RAND підкреслює, що в такому середовищі, де інформаційне поле більше не контролюється монолітно, США не можуть дозволити собі зволікати. Потрібно подолати технологічну відсталість, починати боротися з неконтрольованим використанням фейкових голосів, зображень та відео. А це у свою чергу потребує навченого персоналу, регулювання та розуміння своїх слабких сторін.
У цьому контексті звіт акцентує увагу на потребі в навчанні, освіті й інституційному розвитку. Для ефективного і безпечного використання АІ потрібні чіткі нормативні, етичні й технічні «правила» та «кордони», які визначатимуть – що допустимо, а що ні.
Традиційні інструменти стримування й дипломатії вже не гарантують переваги. Натомість перемагає той, хто швидше адаптується, масштабніше мислить і готовий діяти нестандартно.
Тому ухвалення централізованої стратегії щодо створення на базі генеративного АІ інфраструктури глобального впливу – це питання виживання США. Автори звіту з жалем констатують, що поки що в Міністерстві оборони США такий документ відсутній, збільшуючи ризик відставання від конкурентів та програшу гонки за глобальне лідерство.
Генеративний АІ, який змінює обличчя сучасної війни, стає інструментом швидкого впливу, обману, переконання, масштабування операцій та адаптації до нових викликів. Але без глибокого розуміння, чітких обмежень і стратегічного бачення – що з цим робити – цей інструмент може стати зброєю з двома лезами, здатною знищити свого творця.

Віктор Таран, експерт з оборонних та військово-технічних інновацій, спеціалізується на безпілотниках та кібербезпеці
* Точка зору автора може не збігатися з позицією агентства
реклама