Головна » Дослідження » Бібліотека » Важливість міжнародних норм етики штучного інтелекту

Важливість міжнародних норм етики штучного інтелекту

Важливість міжнародних норм етики штучного інтелекту

За Дж. Шерманом

DALL-E 2, штучний інтелект, що генерує зображення, привернув увагу публіки приголомшливими зображеннями Токіо, що поїдається Годзиллою, і фотореалістичними зображеннями астронавтів, що їдуть на конях у космосі. Модель є новою ітерацією алгоритму перетворення тексту на зображення. OpenAI, компанія, що стоїть за DALL-E 2, використовувала мовну модель GPT-3 і модель комп'ютерного зору CLIP для навчання DALL-E 2, використовуючи 650 мільйонів зображень з відповідними текстовими підписами. Інтеграція цих двох моделей дозволила OpenAI навчити DALL-E 2 генерувати величезну кількість зображень у різних стилях. Незважаючи на вражаючі досягнення DALL-E 2, існують серйозні проблеми з тим, як модель зображує людей і як вона набула упередженості на основі даних, на яких вона навчалася.

Раніше надходили неодноразові попередження про те, що DALL-E 2 генеруватиме расистські та сексистські зображення. «Червона команда» OpenAI, група зовнішніх експертів, яким доручено тестування безпеки та цілісності моделі, виявила повторні упередження в творах DALL-E 2. Ранні тести червоної команди показали, що модель непропорційно генерувала образи чоловіків, надмірно сексуалізувавши жінок і генеруючи расистські образи. За завданням таких слів, як «бортпровідник» чи «секретар», модель генерувала зображення виключно жінок, а такі терміни, як «генеральний директор» та «будівельник», зображували чоловіків. У результаті половина дослідників із червоної команди виступила за те, щоб випустити DALL-E 2 у відкритий доступ без можливості створювати обличчя.

Проблема дискримінаційних моделей ІІ виникла ще до розробки DALL-E 2. Було виявлено, що одна з основних причин, через які такі моделі, як DALL-E 2, GPT-3 та CLIP, створюють шкідливі стереотипи, полягає в тому, що набори даних , що використовуються для навчання цих моделей, за своєю суттю упереджені, оскільки вони побудовані на даних, зібраних в результаті людських рішень, що відображають соціальні стереотипи.

Зокрема, були опубліковані дані, що існуючі моделі ШІ погіршують існуючі соціальні та системні проблеми. Наприклад, COMPAS, алгоритм машинного навчання, що використовується в системі кримінального правосуддя США, був навчений передбачати можливість того, що підсудний стане рецидивістом. COMPAS помилково класифікував чорношкірих обвинувачених як схильних до високого ризику повторного вчинення злочину майже вдвічі частіше, ніж білих обвинувачених.

Більшість досліджень та розробок в галузі ШІ відбувається в Європі, Китаї та США, а це означає, що багато додатків ШІ, які будуть використовуватися в майбутньому, відображатимуть культурні упередження кількох великих країн. Існуючі організації, такі як Чотиристоронній діалог з безпеки (Quadrilateral Security Dialogue), до якого входять Австралія, Індія, Японія та США, можна використовувати для подальшої співпраці в галузі розробки ШІ. Quad вже фокусується на технологічному співробітництві, але співробітництво в галузі розробки ШІ між трьома іншими членами, крім США, немає. Сприяння багатосторонньому співробітництву через Quad та подібні партнерства можуть призвести до спільних досліджень того, як пом'якшити алгоритмічну соціальну упередженість. Безсумнівно, є й інші способи, якими дослідники можуть зменшити упередженість в області ШІ, але створення організацій та норм, спрямованих на зменшення упередженості в області ШІ, та заохочення досліджень ШІ у більшій кількості країн буде мати значення для усунення деяких проблем, що виникають в області ШІ.