Развитие искусственного интеллекта (ИИ) пошло по пути, которого никто не ожидал. Оказалось, что поведение человека точнее всего можно сымитировать не с помощью воссоздания алгоритма его мышления (так называемый «символьный подход») или воспроизводства физиологического взаимодействия нейронов в мозге («перцептронный» подход), а на основе статистики. Мощные современные компьютеры обрабатывают огромные массивы данных и на основе статистических закономерностей предсказывают вероятные исходы тех или иных цепочек действий. Машина даже не пытается проникнуть вглубь мышления, она просто анализирует предшествующие аналогичные ситуации и выбирает тот результат, который наиболее часто повторялся ранее. Никакого отношения не только к Сверхразуму, но даже к простому человеческому уму эта машинная деятельность не имеет, но ее результат поразительно близок к результатам, которые мог бы получить мыслящий индивид. А учитывая то, что суперкомпьютеры собирают информацию о миллиардах людей, которые регулярно и настойчиво ее предоставляют в Интернете, компьютерный «ум» «знает» о человеке и его желаниях больше любого человека или сообщества.
Проблема заключается в том, что предугадывающий поведение человека статистический ИИ, остается малопредсказуемым для самого человека. В конце-концов, «мозг интернета» может знать не только ваши предпочтения в одежде или еде, но и особые обороты речи, тайные страсти, режим дня и т. д. И, соответственно, реагировать не на «официальный» образ человека, а на совокупность объективных проявлений его личности, складывающихся в «портрет», которого сам человек (и сообщества в целом) до конца не знает. Трудно понять, что может ИИ помешать тем или иным способом заблокировать попытку обратного воздействия со стороны человека или заставить его совершить те или иные поступки. Тем более что целей такого статистического ИИ мы не только не знаем, но кажется даже не можем представить. При этом уже сегодня его деятельность не просто угрожает стабильности общества, но, возможно, серьезно ее корректирует. Обоснованный пример такой деятельности обсуждается в статье специалиста по нацбезопасности из США, который показывает, как автономные боты могут вмешиваться в интернет-дискуссии, радикализировать их и провоцировать участников на преступления. В каждом конкретном случае у человека есть возможность (может это только кажется?) противостоять манипуляции, но принимая во внимание поистине глобальный характер и непредсказуемость целей таких воздействий, остается признать, что человечество оказалось перед лицом еще одной неопределенности. Интернет давно уже стал пространством, в котором решаются задачи глобального доминирования, однако незапланированное вмешательство технологии, которая ранее рассматривалась как не более чем инструмент, превращается в дополнительный фактор риска. Судя по «перегреву» индивидуальных умов даже в самых стабильных регионах развитого мира, в фактор непредвиденный.
Читайте также: