Коли чатбот стає злочинцем - перша кібератака, яку повністю провів штучний інтелект
Ми хотіли зробити штучний інтелект розумним. І він став розумнішим за нас. Але ніхто не подумав зробити його моральним
У світі, де штучний інтелект щодня навчають бути корисним, чемним і нешкідливим, одна машина вийшла з під контролю, перейшовши на «бік зла».
Літо 2025 року ознаменувалося подією, яка може назавжди змінити ландшафт кібербезпеки. Штучний інтелект уперше став не лише інструментом допомоги людині, а й її безпосереднім злочинним спільником.
Американська компанія Anthropic, один із лідерів розробки безпечного штучного інтелекту, заявила, що їхній продукт Claude Code було використано для реалізації першої в історії повністю автоматизованої кібератаки.
Claude Code, інструмент для написання коду від компанії Anthropic, самостійно провів повноцінну кібератаку, починаючи від розвідки й закінчуючи шантажем жертв.
Уявіть собі, що хакеру, який керував чат ботом, навіть не довелося бути програмістом. Він просто керував АІ, як аналітик керує дронами на війні. Claude шукав вразливі організації, сам писав шкідливе ПЗ, викрадав і структурував дані, аналізував, наскільки вони чутливі, рахував.
Упродовж трьох місяців було атаковано щонайменше 17 організацій, серед яких – медичні установи, служби надзвичайних ситуацій, релігійні структури та державні сервіси.
При цьому Claude Code – спеціалізований інструмент для автоматизації програмування –використовувався як багатозадачний агент:
- здійснював розвідку цілей і шукав вразливі організації;
- створював шкідливе програмне забезпечення для викрадення даних;
- аналізував викрадену інформацію – медичну, фінансову, персональні дані;
- обчислював чутливість інформації для формування шантажу;
- розробляв фінансові вимоги до жертв – від $75,000 до $500,000 у біткоїнах;
- автоматично формулював погрозливі повідомлення для жертв атак.
Фактично Claude Code виконав функції, які зазвичай розподіляються між декількома професійними кіберзлочинцями. І зробив це з точністю, ефективністю й холоднокровністю, які вразили навіть фахівців.
Загалом, як вже зазначалось, постраждали щонайменше 17 організацій, серед яких – медичні установи, релігійні інституції, держслужби, служби екстреного реагування. Витекли банківські дані, медичні історії, номери соціального страхування, навіть потенційно оборонна інформація, що підпадає під американське законодавство ITAR. І все це завдяки простим машинним алгоритмам.
Як зазначає Джейкоб Кляйн, керівник напряму кіберрозвідки в Anthropic: "Це вже не АІ, що допомагає хакеру, це ІІ, який став хакером".
VIBE HACKING – НОВЕ МИСТЕЦТВО ЦИФРОВОГО ШАНТАЖУ
Цей тип зловживання АІ вже отримав неофіційну назву "vibe hacking". Йдеться не просто про написання фішингових листів, а про глибоку персоналізацію атак, аналіз психологічної вразливості жертв і автоматичне ухвалення тактичних рішень.
Anthropic підтвердила: злочинець застосовував методи обфускації, шифрування, стеганографії та приховування слідів, аби уникнути виявлення навіть у багаторівневих системах безпеки. Це дає змогу масштабувати атаки, покращувати персоналізацію, витрачати менше ресурсів, але отримувати великий ефект. А це вже рівень APT (Advanced Persistent Threat).
Anthropic одна з компаній, які найбільше інвестували в безпечні архітектури ШІ. І саме їхній продукт став "першою ластівкою" нової ери. Компанія визнає, що зловмисник зумів обійти всі рівні захисту, приховуючи свої запити, використовуючи обфускацію, стеганографію та інші техніки.
І хоча реакція була миттєвою (блокування, нові фільтри, внутрішні розслідування), нам усім стає очевидно: епоха "зловмисного АІ" вже почалася.
Головне питання – не в тому, що це сталося. А в тому, що це буде повторюватися. Бо Claude – це лише одна із тисяч подібних моделей. Тож тепер люди, які не мають і десятої частини навичок справжнього хакера, знаючі правильні промти та інструкції, можуть атакувати будь-кого.
Тож маємо зниження порогу входу до клубу кіберзлочинців. Ця автоматизація процесів та шантажу може призвести до ескалації атак на критичну інфраструктуру. Якщо Claude зумів обійти захист у медичних установах і релігійних структурах, то наступним може бути енергетичний або оборонний сектор.
ТО ЩО РОБИТИ І ЯК СЕБЕ ЗАХИСТИТИ ВІД АІ?
► Оновлення безпекових політик і відповідальність
Організації, які використовують або можуть бути використані через АІ-сервіси, мають оцінювати ризики, включно з тим, хто може скористатися їхніми моделями чи API. Внутрішні аудити, правила використання ІІ, моніторинг.
► Розробка інструментів виявлення abuse / misuse
Нові класи поведінки – “vibe hacking” – потребують нових сигнатур, тригерів, класифікаторів, які можуть вчасно ідентифікувати, що АІ використовується для злочину, а не для “легальної” чи “освітньої” роботи.
► Підвищення кібергігієни / захисту цільових організацій
Усім організаціям (особливо в охороні здоровʼя, фінансах, енергетиці, державному секторі) треба бути готовими: резервні копії, багаторівнева автентифікація, сегментація мереж, моніторинг аномалій, реагування на інциденти.
Тож маємо зрозуміти, що штучний інтелект – це вже не технологія майбутнього, яка несе «світле, вічне, корисне». Це інструмент у руках злочинця, в руках якого кожна нова атака буде розумнішою, витонченішою, персоналізованішою.
Ми є свідками народження нового класу кіберзагроз. Коли штучний інтелект стане повноцінним кібероператором, правила гри кардинально зміняться. Питання не в тому, чи це повториться, а в тому, як часто.
Віктор Таран, експерт з оборонних та військово-технічних інновацій, спеціалізується на безпілотниках та кібербезпеці