ИИ представляет серьезную угрозу вымирания для человечества
Категория
Технологии
Дата публикации

ИИ представляет серьезную угрозу вымирания для человечества

ИИ представляет серьезную угрозу вымирания для человечества
Источник:  online.ua

Выдающиеся деятели в области искусственного интеллекта (ИИ) бьют тревогу относительно потенциальных опасностей, связанных с развитием собственных технологий, сравнивая риски, которые несет ИИ, с пандемиями и ядерными войнами. В открытом письме, которое вскоре будет опубликовано Центром безопасности ИИ, более 350 лидеров отрасли, отметили настоятельную необходимость устранения этих рисков для человечества.

Источник: New York Times

ИИ представляет серьезную угрозу вымирания для человечества

В письме утверждается, что снижение риска вымирания, вызванного искусственным интеллектом, должно стать глобальным приоритетом, ставя его в один ряд с другими основными общественными рисками.
Среди подписавшихся письма – такие влиятельные фигуры, как Сэм Альтман, глава OpenAI, Демис Хассабис, глава Google DeepMind, Дарио Амодей, глава Anthropic, а также Джеффри Хинтон и Йошуа Бенгио, лауреаты премии Тьюринга, считающиеся пионерами в области современного ШИ. В списке отсутствует Ян Лекун, возглавляющий исследование ИИ в компании Meta.
Растущая обеспокоенность общественности вокруг развития ИИ усилила эти опасения. Некоторые заботятся о том, что системы искусственного интеллекта, включая такие платформы, как ChatGPT, могут быть использованы для распространения дезинформации и пропаганды.
Кроме того, опасения вызывает потенциальная утрата миллионов рабочих мест в связи с внедрением ИИ в Европе и США. Необычно, но сами лидеры промышленности признают риски, связанные с их собственными творениями, и выступают за строгое регулирование со стороны руководящих органов.

Симпатики ИИ не верят оговоркам

В то же время скептики отрицают потенциальную опасность ИИ. Они заявляют, что технология искусственного интеллекта все еще находится в зачаточном состоянии и не способна представлять ощутимую угрозу человечеству. В то же время, по их мнению, следует сосредоточиться на решении неотложных проблем, таких как предвзятость и ошибочность ответов ИИ.
Однако другие считают, что системы ИИ с возможностями, эквивалентными человеческим, рано или поздно материализуются. Чтобы предотвратить потенциальные негативные последствия, лидеры отрасли предлагают создать организацию, которая занималась бы регулированием ИИ, вроде Международного агентства по атомной энергии (МАГАТЭ), цель предотвратить распространение и нецелевое использование ядерного оружия.
Этот недавний призыв к осторожности и регулированию появился после предыдущего открытого письма, подписанного более тысячи исследователей и представителей технологической индустрии, выступавших за шестимесячный мораторий на разработку передовых систем искусственного интеллекта из-за их угрозы человечеству.
Лаконичность формулировок письма имела целью объединить экспертов, несмотря на потенциальные разногласия во взглядах на определенные аспекты.

Читайте также:

Оставаясь на онлайне вы даете согласие на использование файлов cookies, которые помогают нам сделать ваше пребывание здесь более удобным.

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?