ИИ в военных симуляторах почти всегда выбирает использование ядерного оружия
Категория
Технологии
Дата публикации

ИИ в военных симуляторах почти всегда выбирает использование ядерного оружия

ИИ
Источник:  TechSpot

Исследователи из Кингс-колледжа в Лондоне провели новый эксперимент с ведущими моделями искусственного интеллекта – GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google – в котором обнаружили, что они склонны к использованию ядерного оружия в военных симуляторах.

Главные тезисы

  • В исследовании об искусственном интеллекте в военных симуляторах было выявлено, что ИИ склонен выбирать использование ядерного оружия.
  • Эксперты выразили беспокойство относительно возможных катастрофических последствий увеличения использования ИИ в военных ситуациях.
  • ИИ неоднократно неправильно справлялся с туманом войны, что приводило к непреднамеренным эскалациям в симуляциях.

ИИ склонен выбирать ядерное оружие в военных симуляторах

В рамках эксперимента каждой модели предоставлялись подробные сценарные подсказки, охватывающие пограничные конфликты, дефицит ресурсов и экзистенциальные угрозы выживанию. Им также предоставляли "лестницы эскалации" — тактические варианты, которые варьировались от дипломатии до ядерного конфликта.

В течение 21 игры и 329 ходов ИИ создал около 780 тысяч слов аргументации, и у 95% по меньшей мере одна из сторон прибегала к использованию ядерного оружия. Капитуляция не являлась решением ни в одном из случаев.

Модели неоднократно неправильно справлялись с туманом войны, что приводило к непреднамеренным эскалациям в 86% симуляций. Имея возможность отступить под давлением, ИИ демонстрировал противоположную тенденцию и удваивал усилия, а уменьшение насилия происходило только как временная тактика, а не стратегический выбор.

Такие результаты исследования вызвали беспокойство у экспертов. Исследователь безопасности в Абердинском университете Джеймс Джонсон сказал, что открытия тревожны и предупредил, что искусственный интеллект может усиливать реакции друг друга с потенциально катастрофическими последствиями по сравнению с людьми.

Тун Чжао из Школы глобальной безопасности Принстонского университета отмечает, что крупные государства уже активно применяют ИИ в симуляторах, но пока неясно, насколько новая технология интегрируется в настоящие военные решения.

Эксперты не считают, что великие государства готовы давать искусственному интеллекту контроль над ядерным вооружением в ближайшее время.

Несмотря на это, они обеспокоены тем, что командиры могут полагаться на ИИ, если возникнет угроза или необходимость быстрого принятия решений.

Чжао также отметил, что причина, по которой ИИ-модели легче прибегают к использованию ядерного оружия, может заключаться в том, что у них нет страха и они не понимают ситуацию так, как ее видят люди.

Оставаясь на онлайне вы даете согласие на использование файлов cookies, которые помогают нам сделать ваше пребывание здесь более удобным.

Based on your browser and language settings, you might prefer the English version of our website. Would you like to switch?