За К. Осборном
Можливості штучного інтелекту, помножені на бойову зброю, - це зловісний потенціал, який необхідно брати до уваги для обліку серйозних і зростаючих ризиків сьогоднішнього світу. Технологічно просунуті противники все більш здатні створювати на базі штучного інтелекту смертоносні системи роботизованої зброї, здатні приймати рішення, що не обмежені етикою, моральними міркуваннями або людським контролем.
Посилаючись на можливість того, що «авторитарні режими», можуть розробити озброєний штучний інтелект, командир Об'єднаного центру штучного інтелекту Пентагону генерал-лейтенант Майкл Гроен сказав, що США і дружні сили, можливо, не зможуть використовувати зіставні можливості в цій області. Це може створити нерівні умови на полі бою.
Нагальною проблемою стає міжнародний контроль над технологіями бойового автономного ШІ. Розробники передового зброї, вчені і футуристи повинні прагнути працювати з однодумцями, зацікавленими в задоволенні етичних проблем, пов'язаних з ШІ. Почасти це відноситься до доктринальним і технологічних розробок, які, мабуть, можуть прагнути збалансувати або об'єднати кращі технічні можливості з оптимальною тактикою, достатньої для відбиття атаки противника, керованої штучним інтелектом.
«Ми думаємо, що насправді можна забезпечити необхідні в бою швидкість і можливості, з самого початку привносячи принципи та етику ШІ, і що ми не самотні в цьому», - сказав Гроен репортерам, - «В даний час у нас є партнерство зі ШІ для захисту з шістнадцятьма країнами, які поділяють один і той самий набір етичних принципів».
Посилаючись на те, що він назвав «етичною базою», Гроен сказав, що є способи конструювати і використовувати високоефективну зброю з підтримкою ШІ відповідно до встановлених етичними параметрами.
Одна з таких можливостей, яка зараз розглядається вченими, інженерами і розробниками зброї в Пентагоні, полягає в тому, щоб спроектувати ШІ-системи, здатні миттєво застосовувати «оборонні» або «несмертельні» атаки проти нелюдських цілей, таких як протикорабельні об'єкти, що наближаються, ракети, міни або дрони.
Ще один цікавий нюанс полягає в тому, що, з огляду на швидкість і процедурну ефективність, з якими датчики управління вогнем з підтримкою ШІ, системи озброєння і аналізу даних можуть працювати, швидке прийняття рішень людиною не завжди може «сповільнити» бойові рішення про застосування зброї. Розширений аналіз ІІ може, наприклад, порівнювати дані про вхідну атаці на основі великої бази даних за минулі періоди і миттєво визначати, який курс дій може найкращим чином вирішити ситуацію. Це стало можливо завдяки просунутим алгоритмам, які використовують історичну базу даних, порівнюючи, як конкретні обставини атаки були усунені в минулому по відношенню до безлічі важливих змінних, таких як погода, місцевість, дальність тощо. Таким чином ланцюжок знищень може бути завершений за лічені секунди, а люди, які приймають рішення, бути «в курсі подій».
Читайте також:
Талібан набирає силу, нафта росте в ціні: Топ-5 подій тижня
Чи доведеться євреям, угорцям і росіянам "надіти жовті зірки"?