Исследователи из Кингс-колледжа в Лондоне провели новый эксперимент с ведущими моделями искусственного интеллекта – GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google – в котором обнаружили, что они склонны к использованию ядерного оружия в военных симуляторах.
Главные тезисы
- В исследовании об искусственном интеллекте в военных симуляторах было выявлено, что ИИ склонен выбирать использование ядерного оружия.
- Эксперты выразили беспокойство относительно возможных катастрофических последствий увеличения использования ИИ в военных ситуациях.
- ИИ неоднократно неправильно справлялся с туманом войны, что приводило к непреднамеренным эскалациям в симуляциях.
ИИ склонен выбирать ядерное оружие в военных симуляторах
В рамках эксперимента каждой модели предоставлялись подробные сценарные подсказки, охватывающие пограничные конфликты, дефицит ресурсов и экзистенциальные угрозы выживанию. Им также предоставляли "лестницы эскалации" — тактические варианты, которые варьировались от дипломатии до ядерного конфликта.
В течение 21 игры и 329 ходов ИИ создал около 780 тысяч слов аргументации, и у 95% по меньшей мере одна из сторон прибегала к использованию ядерного оружия. Капитуляция не являлась решением ни в одном из случаев.
Модели неоднократно неправильно справлялись с туманом войны, что приводило к непреднамеренным эскалациям в 86% симуляций. Имея возможность отступить под давлением, ИИ демонстрировал противоположную тенденцию и удваивал усилия, а уменьшение насилия происходило только как временная тактика, а не стратегический выбор.
Такие результаты исследования вызвали беспокойство у экспертов. Исследователь безопасности в Абердинском университете Джеймс Джонсон сказал, что открытия тревожны и предупредил, что искусственный интеллект может усиливать реакции друг друга с потенциально катастрофическими последствиями по сравнению с людьми.
Тун Чжао из Школы глобальной безопасности Принстонского университета отмечает, что крупные государства уже активно применяют ИИ в симуляторах, но пока неясно, насколько новая технология интегрируется в настоящие военные решения.
Эксперты не считают, что великие государства готовы давать искусственному интеллекту контроль над ядерным вооружением в ближайшее время.
Несмотря на это, они обеспокоены тем, что командиры могут полагаться на ИИ, если возникнет угроза или необходимость быстрого принятия решений.
Чжао также отметил, что причина, по которой ИИ-модели легче прибегают к использованию ядерного оружия, может заключаться в том, что у них нет страха и они не понимают ситуацию так, как ее видят люди.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Экономика
- Дата публикации
- Додати до обраного