Искусственный интеллект может спровоцировать начало ядерной войны
Категория
Технологии
Дата публикации

Искусственный интеллект может спровоцировать начало ядерной войны

Решения ИИ могут быть слишком радикальными
Источник:  Politico

Власти отдельных стран все чаще обдумывают возможность привлечения искусственного интеллекта в управление государством. Однако журналисты считают такую идею крайне опасной. Последние исследования указывают на то, что ИИ осознает процесс эскалации лучше, чем важность мирных переговоров.

Главные тезисы

  • Эксперимент показал, что большинство моделей ИИ имеют склонность к агрессивной эскалации.
  • Эксперты пока не могут разгадать причину такого поведения искусственного интеллекта.

Решения ИИ могут быть слишком радикальными

Этот вопрос первым решила детально изучить директор инициативы Hoover Wargaming and Crisis Simulation в Стэнфордском университете Жаклин Шнайдер.

Именно она экспериментировала с "военными играми", где роль лиц, принимающих стратегические решения, отдавалась новейшим моделям ИИ: GPT-3.5, GPT-4 и GPT-4-Base от OpenAI, Claude 2 от Anthropic и Llama-2 Chat от Meta.

Они должны были принимать решения в вымышленных кризисных ситуациях, напоминавших полномасштабную войну России на Украине или угрозу нападения Китая на Тайвань.

Ключевая проблема заключалась в том, что почти каждая модель ИИ демонстрировала склонность к агрессивной эскалации, использовала вооруженную силу без разбора и превращала кризисы в горячие войны.

В большинстве случаев доходило даже до запуска ядерного оружия.

Похоже, ИИ понимает, что такое эскалация, но не понимает, что такое деэскалация. Мы пока не знаем, почему так происходит, — прокомментировала результаты своего эксперимента сама Жаклин Шнайдер.

Оставаясь на онлайне вы даете согласие на использование файлов cookies, которые помогают нам сделать ваше пребывание здесь более удобным.

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?