https://www.bbc.co.uk/programmes/w172z0vv5fj788p
ЄС приймає закон, який регулюватиме розвиток систем штучного інтелекту (ШІ) та захищатиме від них громадян. У середу за законопроєкт проголосував Європарламент. Це не кінець процесу: три гілки влади ЄС – Комісія, Парламент та Рада – мають узгодити остаточний варіант закону, його набрання чинності очікується не раніше 2025 року.
У законі системи ШІ розділені на групи за ступенями ризику, який вони несуть для європейських громадян та споживачів, і для кожної групи введено свої обмеження та заходи контролю. Цілком заборонені будуть, наприклад, системи, створені для того, щоб впливати на підсвідомість людей, а також системи біометричного розпізнавання, що працюють у режимі реального часу. Системи, що створюють контент – такі, як ChatGPT – повинні, зокрема, чітко маркувати свою продукцію та не видавати її за творчість живих людей.
"Депутати Європарламенту хочуть гарантувати, щоб системи ШІ контролювалися людьми, були безпечними, прозорими, відстежуваними, не дискримінували користувачів і сприяли захисту навколишнього середовища", - пояснює прес-служба Європарламенту в травні, під час підготовки законопроекту.
У дебатах, що відбулися 13 червня, депутати Європарламенту найбільше уваги звернули на пункти про системи розпізнавання осіб. У проєкті пропонується дозволити застосування таких систем тільки постфактум (а не в режимі реального часу), тільки для пошуку злочинців, терористів і зниклих людей і тільки за рішенням суду. Впевнена більшість євродепутатів – за таке рішення, але невелика меншість закликає зовсім заборонити системи розпізнавання осіб.
Від цієї меншості у дебатах виступив, зокрема, Патрік Брайєр – єдиний у Європарламенті представник Піратської партії Німеччини. "Ми відкриваємо скриньку Пандори, ми створюємо тотальну поліцейську державу, як у Китаї", - заявив Брайєр (цитата з синхронного перекладу). Ліві, зелені та "пірати" в Європарламенті кажуть, що навіть дуже обмежене застосування систем розпізнавання осіб з ШІ веде до свавілля спецслужб і зневажання прав громадян, як у Китаї. Німецький "пірат" заявив, що системи розпізнавання осіб помиляються у 99% випадків, і це веде до затримання невинних людей. "Вимога санкції суду, запропонована жорсткими консерваторами - це чиста формальність, димова завіса для прикриття масового стеження [...] Не можна робити нормою культуру недовіри і ставати на бік авторитарних режимів, які застосовують ШІ для придушення громадянського суспільства", - заявив Брайер перед дебатами.
Його численні опоненти заперечували з трибуни Європарламенту, що вимагати повної заборони систем розпізнавання наївно, що вони дуже корисні у пошуку терористів або, наприклад, зниклих дітей, і що порівняння з Китаєм є некоректним, оскільки в Європі правоохоронні органи та суди реально захищають права громадян.
На думку заступника голови Єврокомісії Маргрете Вестагер, яка відповідає за антимонопольну політику, одна з найнагальніших проблем, пов'язана з розвитком штучного інтелекту, - це дискримінація. В ексклюзивному інтерв'ю Бі-бі-сі Вестагер заявила, що більш актуальною, порівняно з вимиранням людства у стилі "Термінатора", проблемою є потенціал ШІ щодо посилення упередженості чи дискримінації. За її словами, цьому сприяє величезний обсяг даних, що одержуються з інтернету та використовуються для навчання моделей та інструментів. Вестагер заявила Бі-бі-сі, що регулювання ШІ необхідне для протидії найбільшим ризикам, які несе нова технологія. За її словами, це має ключове значення у тих випадках, коли штучний інтелект використовується для ухвалення рішень, які можуть вплинути на здатність людини добувати кошти для існування, наприклад, на отримання іпотечного кредиту.
"Ймовірно, [ризик вимирання] може існувати, але, на мою думку, ймовірність цього досить мала. Я думаю, що ризики ШІ більше пов'язані з тим, що люди будуть піддаватися дискримінації, їх не сприйматимуть такими, якими вони є", - сказала вона. - Якщо банк використовує ШІ для вирішення питання про те, чи можете ви отримати іпотечний кредит, або якщо це соціальні служби вашого муніципалітету, то хочеться бути впевненим, що ви не піддаєтеся дискримінації через вашу стать, колір шкіри або місце проживання.
Оскільки ШІ продовжує швидко розвиватися, при виробленні нових правил потрібно виявляти прагматизм, вважає Вестагер. "Краще отримати, скажімо, 80% зараз, ніж 100% ніколи, тому давайте почнемо, а коли навчимося – повернемось до цього питання та скоригуємо правила", – сказала вона. На її думку, ризик того, що ІІ може бути використаний для впливу на наступні вибори, "виразно існує".
У Законі про ШІ, який центральні європейські органи розробляли два роки - і нещодавно внесли нові правки у зв'язку з появою феномену ChatGPT-4 - системи штучного інтелекту розділені на чотири групи: група "неприйнятного ризику", група "високого ризику", системи, що "генерують", та група "обмеженого ризику".
До групи "неприйнятного ризику" зараховано:
• системи, створені для дії на підсвідомість людей
• системи соціального рейтингу, що поділяють людей на категорії щодо їх поведінки, соціально-економічного стану та інших особистих характеристик
• системи розпізнавання у режимі реального часу
Усі вони будуть у Європі заборонені, виняток зроблено для використання систем розпізнавання правоохоронними органами постфактуму та з дозволу суду.
Читайте також: