Главная » Новости и комментарии » 2022 » Важность международных норм в этике искусственного интеллекта

Важность международных норм в этике искусственного интеллекта

28.08.2022
1999

По Дж. Шерману

DALL-E 2, искусственный интеллект, генерирующий изображения, привлек внимание публики потрясающими изображениями Токио , поедаемого Годзиллой, и фотореалистичными изображениями астронавтов, едущих на лошадях в космосе. Модель представляет собой новейшую итерацию алгоритма преобразования текста в изображение. OpenAI, компания, стоящая за DALL-E 2, использовала языковую модель GPT-3 и модель компьютерного зрения CLIP , чтобы обучить DALL-E 2, используя 650 миллионов изображений с соответствующими текстовыми подписями. Интеграция этих двух моделей позволила OpenAI обучить DALL-E 2 генерировать огромное количество изображений в самых разных стилях. Несмотря на впечатляющие достижения DALL-E 2, существуют серьезные проблемы с тем, как модель изображает людей и как она приобрела предвзятость на основе данных, на которых она обучалась.  

Раннее поступали неоднократные предупреждения о том, что DALL-E 2 будет генерировать расистские и сексистские изображения. «Красная команда» OpenAI, группа внешних экспертов, которым поручено тестирование безопасности и целостности модели, обнаружила повторяющиеся предубеждения в творениях DALL-E 2. Ранние тесты красной команды показали, что модель непропорционально генерировала образы мужчин, чрезмерно сексуализировала женщин и играла на расовых стереотипах. При задании таких слов, как «бортпроводник» или «секретарь», модель генерировала изображения исключительно женщин, а такие термины, как «генеральный директор» и «строитель», изображали мужчин. В итоге половина исследователей из красной команды выступила за то, чтобы выпустить DALL-E 2 в открытый доступ без возможности создавать лица.  

Проблема дискриминационных моделей ИИ возникла еще до разработки DALL-E 2. Было обнаружено, что одна из основных причин, по которой такие модели, как DALL-E 2, GPT-3 и CLIP, создают вредные стереотипы, заключается в том, что наборы данных, используемые для обучения этих моделей, по своей сути предвзяты, поскольку они построены на данных, собранных в результате человеческих решений, отражающих социальные стереотипы.

В частности, были опубликованы данные, что существующие модели ИИ усугубляют существующие социальные и системные проблемы. Например, COMPAS, алгоритм машинного обучения, используемый в системе уголовного правосудия США, был обучен предсказывать вероятность того, что подсудимый станет рецидивистом. COMPAS ошибочно классифицировал чернокожих обвиняемых как подверженных высокому риску повторного совершения преступления почти в два раза чаще, чем белых обвиняемых. 

Большинство исследований и разработок в области ИИ происходит в Европе, Китае и США, а это означает, что многие приложения ИИ, которые будут использоваться в будущем, будут отражать культурные предубеждения нескольких крупных стран. Существующие организации, такие как Четырехсторонний диалог по безопасности (Quadrilateral Security Dialogue), в который входят Австралия, Индия, Япония и США, можно использовать для дальнейшего сотрудничества в области разработки ИИ. Quad уже фокусируется на технологическом сотрудничестве, но сотрудничество в области разработки ИИ между тремя другими членами, помимо США, отсутствует . Содействие многостороннему сотрудничеству через Quad и подобные партнерства могут привести к совместным исследованиям того, как смягчить алгоритмическую социальную предвзятость. Несомненно, есть и другие способы, которыми исследователи могут уменьшить предвзятость в области ИИ, но создание организаций и норм, направленных на уменьшение предвзятости в области ИИ, и поощрение исследований ИИ в большем количестве стран будет иметь значение для устранения некоторых проблем, возникающих в области ИИ. 

 

Читайте также:

Саудовская Аравия угрожает сократить поставки нефти в связи с приближением сделки США с Ираном

Не только понимать. О разуме в пограничных ситуациях