Возможен ли боевой искусственный интеллект (ИИ), работающий по этическим правилам?
По К. Осборну
Возможности искусственного интеллекта, помноженные на боевое оружие, - это зловещий потенциал, который необходимо принимать во внимание для учета серьезных и растущих рисков сегодняшнего мира. Технологически продвинутые противники все более способны создавать на базе искусственного интеллекта смертоносные системы роботизированного оружия, способные принимать решение не ограниченные этикой, моральными соображениями или человеческим контролем.
Ссылаясь на возможность того, что «авторитарные режимы», могут разработать вооруженный искусственный интеллект, командир Объединенного центра искусственного интеллекта Пентагона генерал-лейтенант Майкл Гроен сказал, что США и дружественные силы, возможно, не смогут использовать сопоставимые возможности в этой области. Это может создать неравные условия на поле боя.
Насущной проблемой становится международный контроль над технологиями боевого автономного ИИ. Разработчики передового оружия, ученые и футуристы должны стремиться работать с единомышленниками, заинтересованными в удовлетворении этических проблем, связанных с ИИ. Отчасти это относится к доктринальным и технологическим разработкам, которые, по-видимому, могут стремиться сбалансировать или объединить лучшие технические возможности с оптимальной тактикой, достаточной для отражения атаки противника, управляемой искусственным интеллектом.
«Мы думаем, что на самом деле можно обеспечить необходимые в бою скорость и возможности, с самого начала привнося принципы и этику ИИ, и что мы не одиноки в этом», - сказал Гроен репортерам, - «В настоящее время у нас есть партнерство по ИИ для защиты с шестнадцатью странами, которые придерживается одного и того же набора этических принципов».
Ссылаясь на то, что он назвал «этической базой», Гроен сказал, что есть способы конструировать и использовать высокоэффективное оружие с поддержкой ИИ в соответствии с установленными этическими параметрами.
Одна из таких возможностей, которая сейчас рассматривается учеными, инженерами и разработчиками оружия в Пентагоне, состоит в том, чтобы спроектировать ИИ-системы, способные мгновенно применять «оборонительные» или «несмертельные» атаки против нечеловеческих целей, таких как приближающиеся противокорабельные объекты, ракеты, мины или дроны.
Еще один интересный нюанс заключается в том, что, учитывая скорость и процедурную эффективность, с которыми датчики управление огнем с поддержкой ИИ, системы вооружения и анализа данных могут работать, быстрое принятие решений человеком не всегда может «замедлить» боевые решения о применении оружия. Расширенный анализ ИИ может, например, сравнивать данные о входящей атаке на основе обширной базы данных за прошлые периоды и мгновенно определять, какой курс действий может наилучшим образом разрешить ситуацию. Это стало возможно благодаря продвинутым алгоритмам, использующим историческую базу данных, сравнивая, как конкретные обстоятельства атаки были устранены в прошлом по отношению к множеству важных переменных, таких как погода, местность, дальность и т.д. Таким образом цепочка уничтожений может быть завершена за считанные секунды, а люди, принимающие решения, быть «в курсе событий».