По М. Ламберт
Совет по военным инновациям - консультативный комитет технических руководителей, ученых и технологов США - обнародовал свой список этических принципов искусственного интеллекта (ИИ). Если эти рекомендации будут приняты министерством обороны, то они лягут в основу стратегии использования Пентагоном ИИ как в боевых, так и в не боевых системах. Принципы Правления являются важной вехой и необходимой на пути внедрения ИИ.
В своем официальном документе совет признает, что область ИИ постоянно развивается и что предлагаемые им принципы представляют собой ориентиры, к которым должен стремиться департамент, разрабатывая и внедряя технологии с поддержкой ИИ. Совет рекомендует, чтобы Министерство обороны стремилось разработать и развернуть системы искусственного интеллекта, в соответствии с принципами:
1. Ответственности. Первый принцип устанавливает ответственность, возлагая ее на человека не только за «разработку, развертывание, [и] использование» систем ИИ, но, что наиболее важно, за любые «результаты», которые дает эта система. Бремя ложится на человека, а не на ИИ.
2. Справедливости. Второй принцип призывает предпринять «превентивные шаги», чтобы минимизировать «непреднамеренные результаты» в системах ИИ. Рост технологии распознавания лиц и последующие проблемы «системных предубеждений» требуют мер по смягчению потенциальных предвзятостей в действиях ИИ.
3. Контроля. Третий принцип касается необходимости технических знаний в Министерстве обороны, чтобы инженеры ИИ имели «надлежащее понимание технологии» и понимание того, как система достигает своего результата.
4. Надежности. Четвертый принцип, гласит, что система ИИ должна делать то, что было запрограммировано для работы в той области, в которой она была запрограммирована. Инженеры ИИ должны проводить тесты для обеспечения «безопасности и надежности» системы в течении всего ее «жизненного цикла».
5. Управляемость. Пятый принцип касается необходимости обеспечения безопасности при сбоях в ситуациях, когда ИИ получает непредвиденные результаты. Система ИИ должна быть способна «обнаруживать и избегать непреднамеренного вреда»; должны существовать механизмы, позволяющие человеку отключать ИИ в режиме реального времени или автоматически.
Эти этические принципы являются ценным и необходимым шагом в серии действий, которые были предприняты в отношении ИИ.
Принятие и реализация важны, потому что они указывают мировой общественности, что оборонное сообщество США серьезно относится к этике ИИ и понимает необходимость снижения рисков в этой сфере. В прошлом международные организации, такие как ОЭСР , а также такие компании, как Microsoft или Google , вводили этические принципы ИИ или создавали этические советы, не всегда определяя механизмы реализации или подотчетности. Необходимо проявить дальновидность, не только приняв эти принципы, но и фактически создав механизмы для их соблюдения.
Читайте также:
Что объединяет популистов Европы?
Устойчивые к антибиотикам бактерии становятся глобальной угрозой