Главная » Новости и комментарии » До создания Супер-Искусственного Интеллекта еще далеко, но риски уже существенны

До создания Супер-Искусственного Интеллекта еще далеко, но риски уже существенны

12.11.2019
668

По Мартину Эллингу

Растет согласие с тем, что искусственный интеллект (ИИ) коренным образом изменит нашу экономику и общество. Во многих отраслях промышленности используется широкий спектр коммерческих приложений. Среди них: обнаружение аномалий (например, для предотвращения мошенничества), распознавание изображений (например, для общественной безопасности), распознавание речи и генерация естественного языка (например, для виртуальных помощников), механизмы рекомендаций и автоматизированные системы принятия решений (например, для приложений документооборота).
Хотя потенциальные выгоды ИИ огромны, проблемы также существенны. Существуют опасения относительно возможной дискриминации, безопасности, конфиденциальности, этики и ответственности за нежелательные результаты. Есть опасения, что ИИ получит власть над человеком, поставит под угрозу важные ценности, а также усугубит дискриминации.
КАКОВЫ РИСКИ ИИ?
Приложения ИИ используют большие объемы данных для распознавания типичных ситуаций и изучения наборов данных. Существует три основных типа ИИ, которые сгруппированы по степени интеллекта: узкий, общий и супер-ИИ. Узкие системы искусственного интеллекта обучаются выполнять очень специфические физические или когнитивные задачи и работают в ограниченном контексте и заранее определенном диапазоне. Напротив, общий ИИ применим к более широким проблемным областям, обладает способностью оценивать контекст и дает эмоционально управляемые реакции на ситуации так, как это делают люди. Системы супер-ИИ, которые обладают потенциалом превзойти людей в широком спектре дисциплин, еще не полностью разработаны и, скорее всего, будут созданы не скоро.
Почти все существующие приложения представляют собой узкий ИИ, основанный на анализе данных и стандартных методах машинного обучения. Это означает, что они сосредоточены на конкретных задачах, часто с целью повышения потребительской ценности и операционной эффективности. Ряд негативных последствий широкого применения технологий ИИ видны уже сегодня. Некоторые из категорий рисков приведены в виде списка ниже. Некоторые из них уже сегодня должны считаться реалистичными. Разновидность гипотетического риска, которую можно назвать экзистенциальным, может быть вызвана общим или супер-ИИ. Развитие этих рисков требует углубленного обсуждения на национальном и международном уровнях.
Потенциальные негативные последствия от использования ИИ:
• Все модели/алгоритмы могут привести к ложному прогнозу или большему завышению/недооценке будущего события
• ИИ можно принять общественные или политические предубеждения за легитимные тенденции и усугубить их; эта тенденция может быть еще более опасна, если она программируется намерено
• Модели/алгоритмы ИИ не всегда полностью прозрачны и трудны для понимания
• Результаты работы моделей и алгоритмов ИИ трудно объяснить неспециалистам
• Вредоносные программы на основе ИИ могут нарушить работу бизнеса или общества, атаковав критически важную инфраструктуру или парализуя системы безопасности
• ИИ можно использовать для отслеживания и анализа каждого движения человека онлайн и офлайн (например, как это уже делает система социального кредита в Китае
• Платформы с открытым исходным кодом, которые больше не поддерживаются или не обновляются создателями, могут быть очень уязвимы для нарушений, вызванных ИИ
• Сверхинтеллектуальный ИИ может угрожать человечеству из-за сбоя в процессе принятия решений
• В централизованной системе управления алгоритмами ИИ может произойти ошибка, блокирующая решения для остановки ИИ-машин
• ИИ может быть запрограммирован для оптимизации автономных систем оружия
• Неравенство между группами из-за различий в доступе к данным/алгоритму/оборудованию ИИ для укрепления здоровья, процветания и безопасности 

• Машины ИИ могут заменить человеческую рабочую силу во многих отраслях, что увеличит безработицу в обществе
• Страна или компания, которая опережает других в технологиях искусственного интеллекта, использует свое положение, чтобы доминировать над другими
• Неправильная модель ИИ для пользователя или разработчика может привести к большим потерям для деловых партнеров или клиентов.
• Неправильная модель ИИ приводит к плохим результатам (например, к экономическим потерям или дискриминационным результатам), нанося ущерб репутации
• Когда нам неясно, какие ценности/цели мы ставим для ИИ, ИИ может работать без тех же ценностей/целей, которые у нас есть.
Несмотря на все отмеченные проблемы, крайне важно иметь о них представление и принимать меры для их минимизации. ИИ изменит многие чувствительные для современного общества отрасли, от здравоохранения до образования и электронной коммерции. Какие данные следует использовать для каких целей и где должна быть граница между значимой оптимизацией и неэтичными приложениями? Широкое обсуждение этих вопросов необходимо для того, чтобы двигаться вперед в будущее.

 

Читайте также: Эмманюэль Макрон: НАТО – это живой труп

Накануне-2 или Что на самом деле происходит в Европе и мире

 
Смотреть все события