Видатні діячі в галузі штучного інтелекту (ШІ) б'ють на сполох щодо потенційних небезпек, пов'язаних з розвитком власних технологій, порівнюючи ризики, які несе ШІ, з пандеміями та ядерними війнами. У відкритому листі, який незабаром буде опублікований Центром безпеки ШІ, понад 350 лідерів галузі, наголосили на нагальній необхідності усунення цих ризиків для людства.
Джерело: New York Times
ШІ становить серйозну загрозу вимирання для людства
У листі стверджується, що зниження ризику вимирання, спричиненого штучним інтелектом, має стати глобальним пріоритетом, ставлячи його в один ряд з іншими основними суспільними ризиками.
Серед підписантів листа – такі впливові фігури, як Сем Альтман, голова OpenAI, Деміс Хассабіс, голова Google DeepMind, Даріо Амодей, голова Anthropic, а також Джеффрі Хінтон і Йошуа Бенгіо, лауреати премії Тьюринга, які вважаються піонерами в галузі сучасного ШІ. У списку відсутній Ян Лекун, який очолює дослідження ШІ в компанії Meta.
Зростаюче занепокоєння громадськості навколо розвитку ШІ посилило ці побоювання. Дехто переймається, що системи штучного інтелекту, включно з такими платформами, як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди.
Крім того, побоювання викликає потенційна втрата мільйонів робочих місць у зв'язку з впровадженням ШІ в Європі та США. Незвично, але самі лідери індустрії визнають ризики, пов'язані з їхніми власними творіннями, і виступають за суворе регулювання з боку керівних органів.
Симпатики ШІ не вірять застереженням
Водночас скептики заперечують потенційну небезпеку ШІ. Вони заявляють, що технологія штучного інтелекту все ще перебуває в зародковому стані і не здатна становити відчутну загрозу для людства. Натомість, на їх думку, слід зосередитися на вирішенні нагальних проблем, таких як упередженість і помилковість відповідей ШІ.
Однак інші вважають, що системи ШІ з можливостями, еквівалентними людським, рано чи пізно матеріалізуються. Щоб запобігти потенційним негативним наслідкам, лідери галузі пропонують створити організацію, яка б займалася регулюванням ШІ, на кшталт Міжнародного агентства з атомної енергії (МАГАТЕ), що має на меті запобігти розповсюдженню та нецільовому використанню ядерної зброї.
Цей нещодавній заклик до обережності та регулювання з'явився після попереднього відкритого листа, підписаного понад тисячею дослідників і представників технологічної індустрії, які виступали за шестимісячний мораторій на розробку передових систем штучного інтелекту через їхню загрозу для людства.
Лаконічність формулювань листа мала на меті об'єднати експертів, попри потенційні розбіжності в поглядах на певні аспекти.
Читайте також:
Нейромережа створила зображення після того, як прочитала думки людей
Турецький БПЛА Akinci з українським двигуном вперше уразив ціль на відстані 140 км — відео
Український Bayraktar TB-2 витримав атаку російського винищувача – відео