Власти отдельных стран все чаще обдумывают возможность привлечения искусственного интеллекта в управление государством. Однако журналисты считают такую идею крайне опасной. Последние исследования указывают на то, что ИИ осознает процесс эскалации лучше, чем важность мирных переговоров.
Главные тезисы
- Эксперимент показал, что большинство моделей ИИ имеют склонность к агрессивной эскалации.
- Эксперты пока не могут разгадать причину такого поведения искусственного интеллекта.
Решения ИИ могут быть слишком радикальными
Этот вопрос первым решила детально изучить директор инициативы Hoover Wargaming and Crisis Simulation в Стэнфордском университете Жаклин Шнайдер.
Именно она экспериментировала с "военными играми", где роль лиц, принимающих стратегические решения, отдавалась новейшим моделям ИИ: GPT-3.5, GPT-4 и GPT-4-Base от OpenAI, Claude 2 от Anthropic и Llama-2 Chat от Meta.
Они должны были принимать решения в вымышленных кризисных ситуациях, напоминавших полномасштабную войну России на Украине или угрозу нападения Китая на Тайвань.
Ключевая проблема заключалась в том, что почти каждая модель ИИ демонстрировала склонность к агрессивной эскалации, использовала вооруженную силу без разбора и превращала кризисы в горячие войны.
В большинстве случаев доходило даже до запуска ядерного оружия.
Похоже, ИИ понимает, что такое эскалация, но не понимает, что такое деэскалация. Мы пока не знаем, почему так происходит, — прокомментировала результаты своего эксперимента сама Жаклин Шнайдер.
Больше по теме
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного
- Категория
- Технологии
- Дата публикации
- Додати до обраного