Штучний інтелект як нова вразливість: чому кібербезпека інфраструктури більше не може ігнорувати АІ?
Штучний інтелект більше не є нейтральною технологією. У критичній інфраструктурі він або підсилює безпеку, або стає її слабким місцем
Коли кібератака вимикає електрику або зупиняє транспорт, суспільство рідко замислюється, яким саме був технічний шлях до цього результату. Для людей важливий наслідок, а не спосіб. Але для фахівців з безпеки спосіб має вирішальне значення, бо саме він визначає, чи можна буде захиститися наступного разу. І сьогодні цей спосіб дедалі частіше проходить не через сервери й мережі, а через алгоритми штучного інтелекту.
Наприкінці 2025 року одразу кілька західних державних агентств з кібер- та національної безпеки опублікували спільний звіт і рекомендації щодо безпечного використання штучного інтелекту в операційних технологіях. Документ прямо попереджає: інтеграція АІ в системи, які керують фізичними процесами, створює нові кіберризики, до яких традиційні підходи захисту виявилися не готовими.
ЧОМУ ШТУЧНИЙ ІНТЕЛЕКТ ЛАМАЄ СТАРУ МОДЕЛЬ КІБЕРЗАХИСТУ
АІ швидко входить у критичну інфраструктуру. Його використовують для прогнозування аварій, оптимізації процесів, підтримки операторів у складних ситуаціях. Але разом із цим він змінює саму природу кіберзагроз. Якщо раніше атакували системи, то тепер дедалі частіше атакують логіку прийняття рішень. І це якісно новий рівень ризику.
Саме тому група західних агентств з кібер- та національної безпеки публічно застерегла: інтеграція штучного інтелекту в операційні технології створює новий клас уразливостей, до яких класична кібербезпека виявилася не готовою.
Операційні технології відрізняються від звичайних IT-систем не рівнем важливості, а характером відповідальності. Вони керують фізичними процесами, часто в режимі реального часу. Більшість таких систем створювалися десятиліттями, у середовищі, де кіберзагрози не були головним пріоритетом. Вони важко оновлюються, працюють на спеціалізованому обладнанні і часто не мають гнучких механізмів контролю складних програмних компонентів. У таких умовах інтеграція АІ різко збільшує складність і кількість точок відмови.
Фактично штучний інтелект стає новим шаром між оператором і фізичним процесом. І якщо цей шар працює непрозоро або нестабільно, він сам перетворюється на ризик.
Традиційна кібербезпека десятиліттями будувалася навколо відносно стабільних об’єктів захисту. Є система, є мережа, є набір доступів і чітко визначені правила їхнього контролю. Навіть складні атаки, як правило, залишали сліди: несанкціонований вхід, зміну конфігурації, аномальний трафік. Захист був реактивним, але зрозумілим.
Штучний інтелект руйнує цю модель, бо додає в інфраструктуру компонент, який постійно змінюється сам. Його поведінка залежить не лише від поточного стану системи, а й від даних, на яких він навчається, від умов експлуатації, від оновлень моделей і навіть від того, як саме люди з ним взаємодіють. У звіті західних агентств прямо зазначається: AI-системи в OT середовищі створюють ризики, які не вкладаються в класичні уявлення про кіберінцидент.
Ключова відмінність полягає в тому, що атакувати тепер можна не “вхід у систему”, а її логіку прийняття рішень. Маніпуляція даними, на яких навчається модель, або умовами її роботи може призвести до того, що система формально функціонуватиме правильно, але ухвалюватиме небезпечні рішення. При цьому традиційні засоби кіберзахисту можуть не зафіксувати жодного порушення.
Окрему небезпеку, на яку звертає увагу звіт, становить дрейф моделей — поступова втрата точності через зміну даних або процесів. Це не атака в класичному сенсі, але її наслідки можуть бути такими самими. Система стає менш надійною з часом, а оператори можуть не помітити цього до моменту серйозного інциденту.
Таким чином, кібербезпека в умовах використання АІ перестає бути питанням лише захисту мереж і доступів. Вона перетворюється на завдання постійного контролю поведінки системи, її рішень і меж, у яких ці рішення залишаються безпечними. Саме цього, за оцінкою західних агентств, сьогодні бракує більшості критичних інфраструктур.
АІ ЯК НОВА ПОВЕРХНЯ КІБЕРАТАКИ
У класичному розумінні кібератака це завжди подія. Є момент проникнення, є порушення, є інцидент. Системи моніторингу шукають аномальний трафік, несанкціонований доступ або зміну конфігурації. Але з появою штучного інтелекту в операційних технологіях ця логіка перестає працювати так, як раніше.
АІ створює нову поверхню кібератаки, яка не обмежується мережею чи пристроями. Об’єктом впливу стає весь ланцюг: від збору даних до ухвалення рішень. Атака може початися задовго до того, як система запрацює. Наприклад, на етапі підготовки або агрегації даних для навчання моделі. Маніпуляція цими даними не викликає негайних збоїв, але змінює поведінку алгоритму в майбутньому.
У звіті західних агентств окремо підкреслюється, що такі сценарії можуть розгортатися без жодних ознак класичного кібервторгнення. Система виглядає справною, доступи не порушені, трафік у межах норми. Проте модель поступово починає ухвалювати менш точні або небезпечні рішення і це стає помітно лише тоді, коли наслідки вже неможливо ігнорувати.
Ще одна принципова відмінність полягає в часовому вимірі атаки. Якщо традиційні інциденти зазвичай мають чітку часову рамку, то вплив на АІ може бути повільним і накопичувальним. Дрейф моделей, зміна виробничих процесів, поява нових типів даних – усе це поступово відсуває систему від початкових безпечних параметрів. У результаті кіберризик виникає навіть без активних дій зловмисника.
Окрему загрозу становлять системи, що використовують великі мовні моделі або AI-агенти. Вони можуть реагувати на текстові запити або контекст таким чином, який важко передбачити наперед. У звіті звертається увага на ризик маніпуляції такими системами через непрямий вплив коли зміна формулювання, джерела даних або зовнішнього контексту призводить до небажаних дій або рекомендацій.
Усе це означає, що штучний інтелект не просто додає нові функції – він розширює простір для атаки. Захищати тепер потрібно не лише інфраструктуру, а й поведінку алгоритмів у часі, їхню здатність залишатися в межах безпечних сценаріїв. Саме цей зсув від захисту “точок доступу” до контролю “логіки дій” і є однією з головних кібербезпекових проблем, на які звертає увагу західний звіт.
ЧОМУ “РОЗУМНИЙ” НЕ ОЗНАЧАЄ “БЕЗПЕЧНИЙ”
Одна з найбільших ілюзій навколо штучного інтелекту – це уявлення про його надійність. Насправді більшість сучасних моделей не гарантують стабільної якості рішень у змінних умовах. Вони можуть “галюцинувати”, втрачати точність через дрейф даних або поводитися непередбачувано в нестандартних ситуаціях.
У побутових або бізнес-застосуваннях це зазвичай питання якості сервісу. В операційних технологіях це питання безпеки. Якщо під час інциденту неможливо швидко зрозуміти, чому система прийняла те чи інше рішення, реагування затягується, а наслідки посилюються.
Саме тому принцип “людина в контурі управління” у критичній інфраструктурі розглядається не як компроміс, а як необхідність. Людський контроль нині останній бар’єр між алгоритмічною помилкою і фізичною шкодою.
ЩО НАСПРАВДІ ПРОПОНУЄ ЗАХІД?
Показово, що західні підходи до безпеки АІ в інфраструктурі нині зосереджуються на базових, але жорстких принципах: сегментація мереж, обмеження доступів, постійний аудит, контроль постачальників і прозорість рішень.
Окремо підкреслюється те, що можливість відключити АІ і повернутися до традиційного або ручного управління має бути закладена в систему з самого початку. У критичних середовищах це вважається не ознакою відсталості, а ключовим показником кіберстійкості.
Фактично йдеться про зміну філософії: штучний інтелект не повинен бути автономним “мозком”, а лише інструментом, повністю підконтрольним людині.
Штучний інтелект більше не є нейтральною технологією. У критичній інфраструктурі він або підсилює безпеку, або стає її слабким місцем. Усе залежить від того, чи здатні люди зберегти контроль над алгоритмами, яким вони дедалі більше довіряють. І чим раніше це буде усвідомлено, тим менше шансів, що наступна кібератака почнеться з тихої помилки машини, якій довірили занадто багато.
Віктор Таран, експерт з оборонних та військово-технічних інновацій, спеціалізується на безпілотниках та кібербезпеці