ШІ становить серйозну загрозу вимирання для людства
Категорія
Технології
Дата публікації

ШІ становить серйозну загрозу вимирання для людства

ШІ становить серйозну загрозу вимирання для людства
Джерело:  online.ua

Видатні діячі в галузі штучного інтелекту (ШІ) б'ють на сполох щодо потенційних небезпек, пов'язаних з розвитком власних технологій, порівнюючи ризики, які несе ШІ, з пандеміями та ядерними війнами. У відкритому листі, який незабаром буде опублікований Центром безпеки ШІ, понад 350 лідерів галузі, наголосили на нагальній необхідності усунення цих ризиків для людства.

Джерело: New York Times

ШІ становить серйозну загрозу вимирання для людства

У листі стверджується, що зниження ризику вимирання, спричиненого штучним інтелектом, має стати глобальним пріоритетом, ставлячи його в один ряд з іншими основними суспільними ризиками.

Серед підписантів листа – такі впливові фігури, як Сем Альтман, голова OpenAI, Деміс Хассабіс, голова Google DeepMind, Даріо Амодей, голова Anthropic, а також Джеффрі Хінтон і Йошуа Бенгіо, лауреати премії Тьюринга, які вважаються піонерами в галузі сучасного ШІ. У списку відсутній Ян Лекун, який очолює дослідження ШІ в компанії Meta.

Зростаюче занепокоєння громадськості навколо розвитку ШІ посилило ці побоювання. Дехто переймається, що системи штучного інтелекту, включно з такими платформами, як ChatGPT, можуть бути використані для поширення дезінформації та пропаганди.

Крім того, побоювання викликає потенційна втрата мільйонів робочих місць у зв'язку з впровадженням ШІ в Європі та США. Незвично, але самі лідери індустрії визнають ризики, пов'язані з їхніми власними творіннями, і виступають за суворе регулювання з боку керівних органів.

Симпатики ШІ не вірять застереженням

Водночас скептики заперечують потенційну небезпеку ШІ. Вони заявляють, що технологія штучного інтелекту все ще перебуває в зародковому стані і не здатна становити відчутну загрозу для людства. Натомість, на їх думку, слід зосередитися на вирішенні нагальних проблем, таких як упередженість і помилковість відповідей ШІ.

Однак інші вважають, що системи ШІ з можливостями, еквівалентними людським, рано чи пізно матеріалізуються. Щоб запобігти потенційним негативним наслідкам, лідери галузі пропонують створити організацію, яка б займалася регулюванням ШІ, на кшталт Міжнародного агентства з атомної енергії (МАГАТЕ), що має на меті запобігти розповсюдженню та нецільовому використанню ядерної зброї.

Цей нещодавній заклик до обережності та регулювання з'явився після попереднього відкритого листа, підписаного понад тисячею дослідників і представників технологічної індустрії, які виступали за шестимісячний мораторій на розробку передових систем штучного інтелекту через їхню загрозу для людства.

Лаконічність формулювань листа мала на меті об'єднати експертів, попри потенційні розбіжності в поглядах на певні аспекти.

Читайте також:

Залишаючись на онлайні ви даєте згоду на використання файлів cookies, які допомагають нам зробити ваше перебування тут ще зручнішим

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?