Головна » Новини і коментарі » 2023 » Штучний інтелект як загроза людству

Штучний інтелект як загроза людству

30.03.2023
679

https://www.bbc.com/russian/news-65117669

Провідні фігури в галузі розробки технологій штучного інтелекту, включаючи Ілона Маска та співзасновника Apple Стіва Возняка, пропонують зробити паузу у розвитку технологій штучного інтелекту доти, доки не будуть розроблені та застосовані надійні протоколи безпеки.

Їхній заклик міститься у відкритому листі, опублікованому некомерційним дослідницьким Інститутом майбутнього життя (Future of Life Institute) та підписаним більш ніж тисячею провідних підприємців та експертів.

Автори листа, опублікованого лише через два тижні після того, як американська дослідницька лабораторія OpenAI розкрила подробиці нового, найбільш сучасного на сьогоднішній день чат-бота GPT-4, пропонують ввести піврічний мораторій на навчання систем, більш потужних ніж чат-бот GPT-4. Свій власний чат-бот Bard також відкрила для тестування компанія Google.

У листі цитується рядок з блогу засновника OpenAI Сема Альтмана, який припустив, що "у якийсь момент, перш ніж починати навчати нові системи, важливо буде заручитися незалежною оцінкою".

"Ми згодні з цим, - пишуть автори відкритого послання, - і цей момент вже настав. Потужні ШІ-системи слід розробляти лише після того, як ми переконаємося, що наслідки їх застосування будуть позитивними, а пов'язані з ними ризики - керованими".

У листі докладно описуються ці потенційні ризики суспільству та цивілізації загалом. На думку авторів, вони полягають у тому, що системи на основі штучного інтелекту можуть розпочати конкуренцію з людьми, що може призвести до економічних та політичних вибухів.

У зверненні наводяться чотири головні питання, які, за словами авторів, має задати собі людство:

"Чи маємо ми дозволяти машинам затопити наші інформаційні канали пропагандою та брехнею?"
"Чи маємо ми віддати автоматам всю роботу, у тому числі ту, що приносить людям задоволення?"
"Чи маємо ми розвивати розум нелюдського походження, який у майбутньому може нас перевершити за чисельністю та інтелектуальними здібностями, зробити нас неповноцінними і нас замістити?"
"Чи маємо ми ризикувати втратою контролю над нашою цивілізацією?"

Експерти та представники ШІ-індустрії вважають, що на розробку та впровадження надійних протоколів безпеки має вистачити шість місяців. Але автори листа закликають уряди країн світу втрутитися, якщо якісь компанії не виконають вимог мораторію.

Автори листа – не єдині, хто останнім часом висловлює побоювання щодо безконтрольного розвитку технологій ШІ.

У понеділок стурбованість щодо етичних та юридичних наслідків застосування передових технологій на кшталт ChatGPT висловив поліцейський підрозділ Євросоюзу Європол, який попередив про те, що потенційно ці системи можуть використовуватися для різних типів інтернет-шахрайства - від фішингу до кіберзлочинів, а також поширення дезінформації.

"Мені здається, всім уже зрозуміло, що штучний інтелект відкриває величезні можливості і може зробити вагомий внесок у створення кращого майбутнього для всіх нас, але не слід забувати і про пов'язані з цим ризики - упередженість, дезінформацію і навіть маніпуляції, тож варто було б накласти на ці технології у правила і встановити над ними контроль, - заявила у зв'язку з цим в інтерв'ю Бі-бі-сі фахівець у галузі захисту приватних даних Івана Бартолетті.- Нам необхідно створити атмосферу довіри, щоб користувачі усвідомлювали, що говорять з машиною, і що у цих машин можуть бути збої.

Прихильники технологій штучного інтелекту кажуть, що вони дозволяють спростити багато рутинних завдань, а також зробити пошук інформації точнішим.

 

Читайте також:

Вчені розшифрували ДНК Бетховена

Азіатські союзники одночасно відвідали Київ та Москву