Створення “роботів-убивць” триватиме, поки є недовіра і суперництво між наддержавами

Створення “роботів-убивць” триватиме, поки є недовіра і суперництво між наддержавами

Аналітика
580
Ukrinform
Поки не складеться певний паритет у володінні новою зброєю, доти реальних кроків захисту від загроз, що несе зброя зі штучним інтелектом, зроблено не буде

Минулої середи Європейський парламент ухвалив (566 – “за”, 57 – “проти”, 73 – утрималися) заклик до міжнародної заборони на смертельну автономну зброю, яку ще називають “роботи-вбивці”. Жодних юридичних зобов’язань це рішення не має, лише суто моральне. Менше двох тижнів тому у Женеві (Швейцарія) експерти з усього світу під егідою ООН обговорювали, чи не заборонити автономну зброю повністю. Тобто укласти міжнародний договір про заборону такого озброєння подібно до Договору про нерозповсюдження ядерної зброї. Не домовилися. Координатор міжнародної кампанії “Зупинити роботів-убивць” Мері Уерхем заявила, що Росія, США, Південна Корея, Ізраїль і Австралія є головними країнами, які заблокували обговорення заборони. Експерти лише погодилися продовжити обговорення у листопаді, знову у Женеві.

Про що йдеться?

Йдеться про загрозу появи нового типу зброї, заснованого на так званому штучному інтелекті. Простіше кажучи, з’являться механізми (“роботи”), настільки “розумні”, що будуть самі, без участі людини, визначати ворога на полі бою і знищувати його. У фантастичних кінофільмах щось подібне показують вже давно, тепер ці фантазії можуть стати реальністю.

“Роботів-убивць” ще не створили, тривають лише дослідження, невідомо навіть, чи є хоч якісь дослідні зразки автономної (на основі штучного інтелекту) зброї. Однак дискусії про її заборону точаться вже досить давно. 2013 року ООН включила це питання до свого порядку денного. У серпні 2017 року з’явився відкритий лист-заклик до ООН покласти край гонці озброєнь у сфері автономної зброї. Його підписали більше ста відомих вчених та винахідників, серед яких Ілон Маск, Стівен Хокінг, Білл Ґейтс. У листі стверджується, що в разі неправильного поводження зі штучним інтелектом він може перетворитися – ні багато, ні мало – на загрозу існуванню людства.

Отже, питання не нове, і різноманітних матеріалів у світових ЗМІ на цю тему, думок експертів, переліків основних причин, чому досі не вдається досягти спільного рішення (простіше кажучи, хто чи що проти) – вже накопичилося дуже багато. Приміром, ось тут є детальний огляд усіх граней теми. Або ось тут.

Уявляєте, яким буде світ, коли ним керуватиме Кремль?

Суть проблеми можна викласти гранично просто: йдеться про нову зброю, здатну кардинально змінити характер майбутніх воєн, і в гонитві за цією зброєю відкидаються будь-які застороги, включаючи і таку, як загроза існуванню людства. На жаль, ситуація аж ніяк не нова для світу – сьогодні, як і завжди, мораль людей, точніше – людей при владі, суттєво відстає від технічного і наукового прогресу. Протягом усієї історії людства наукові досягнення використовувалися насамперед для війни. Автомобілі й танки з’явилися майже одночасно, перші реактивні літаки були бойовими, перші ракети несли вибухівку на Лондон, перша атомна бомба створена раніше, ніж перша атомна електростанція.

А нині йдеться про штучний інтелект. Президент Росії Володимир Путін колись відверто заявив, що та країна, яка здобуде першість у створенні штучного інтелекту, керуватиме світом. Ви уявили собі світ, яким керує Кремль? Правда, страшно?

Складність проблеми не лише в тому, що є такі країни, як Росія, і такі президенти, як Путін. Хоча й одне це не дозволяє серйозно розраховувати, що можна в принципі не допустити появи “роботів-убивць” – за тією ж логікою, за якою свого часу було б неприпустимо дозволити, щоб ядерна зброя була тільки в СРСР. Головне – дослідження в сфері штучного інтелекту зупинити неможливо, наука не може застигти на місці. А якщо вчені – російські, американські, німецькі, ізраїльські та з будь-якої країни чи всі разом! – створять цей штучний інтелект, успішно завершать, так би мовити, наукову частину роботи, то створити на основі їхніх досягнень зброю – це вже суто технічне (інженерне) питання.

Саме у них, у “інженерах”, найбільша складність на шляху до заборони “роботів-убивць”. “Інженери” – це, звісно, політики. Це їхня мораль викликає у нас найбільше побоювань. Зрештою, якби раптом можна було провести такий собі всесвітній референдум на тему “роботів-убивць”, і щоб цей референдум був абсолютно вільний (тобто, без маніпуляцій політиків), то підсумок очевидний: всі за мир, всі проти війни і проти нової жахливої зброї. Причому, так би сказали у будь-якій країні світу, і в Росії теж. Звісно, далеко не кожний обиватель морально вищий за політика, часто-густо буває навпаки, але саме політики, на відміну від обивателя, ухвалюють рішення: чи забороняти щось, чи дозволяти. Зауважимо також, що не всі політики, які наразі не виступають за заборону створення зброї на основі штучного інтелекту, роблять це з аморальних міркувань. Можливо, навпаки. Приміром, можливо американські політики вважають за важливіше для справи миру мати таку зброю у США як мінімум одночасно з Росією чи Китаєм. Хто в них кине сьогодні каменем за це?

“Роботи-вбивці” спочатку мають з’явитися, а вже потім їх будуть забороняти

Зрештою, не треба забувати, що формальна заборона далеко не завжди означає вирішення проблеми. Ось хімічна зброя заборонена, і що? Хіба її вже нема?

Отже, підсумуємо: загроза створення нової зброї страшна не стільки тим, що вона вбиває людей (атомна чи хімічна зброя тут практично неперевершені), а тим, що може вийти з-під контролю людини (див. літературну та кінофантастику). Тобто, це справді світова проблема, яку і вирішувати треба усім світом. Але у світі як не було, так і досі нема необхідної для цього взаємної довіри. І конкретного механізму контролю за зброєю теж нема. Світові лідери – США, Китай, Німеччина, Росія, Франція, Велика Британія, Індія та ін. - суперничають між собою так гостро, що нема між ними згоди і з менш важливих питань, ніж безпека всього людства. Власне, довіри і механізму контролю нема саме через гостроту суперництва – політичного та економічного — у світі.

Тому, прогнозуємо, поки “роботи-убивці” не будуть реально створені, поки не вималюється певний паритет між основними гравцями на світовій “шахівниці” у сфері володіння новою зброєю, доти реальних кроків до створення міжнародної системи захисту від загроз, що несе зброя зі штучним інтелектом, зроблено не буде. Можна й так сказати, грубувато: поки “смажений півень” чогось не зробить.

Іншими словами, повториться ситуація з ядерною зброєю. Її стали реально обмежувати лише тоді, коли вона була випробувана, застосована і відлагоджена у виробництві провідними країнами світу. Утім, може все-таки є шанс, що абсолютного повторення вдасться уникнути? Адже нова зброя загрожуватиме не тільки ворогам, а й “своїм”. І тиск міжнародної громадськості за заборону “роботів-убивць” сьогодні куди сильніший, ніж коли він був проти ядерної зброї на початку атомної ери.

Однак, будьмо реалістами: допоки світ не вирішить “наукову” проблему, а саме: як зробити так, щоб у світі не було таких потужних і водночас агресивних антидемократичних режимів на кшталт російського чи північнокорейського, доти “інженерні” рішення будуть ухвалюватися на користь нової зброї, незалежно від рівня демократичності чи моралі політичних лідерів.

Юрій Сандул. Київ

Розширений пошукПриховати розширений пошук
За період:
-
*/ ?>