Влада окремих країн дедалі частіше обмірковує можливість залучення штучного інтелекту до управління державою. Однак журналісти вважають таку ідею вкрай небезпечною. Останні дослідження вказують на те, що ШІ усвідомлює процес ескалації краще, ніж важливість мирних перемовин.
Головні тези:
- Експеримент показав, що більшість моделей ШІ мають схильність до агресивної ескалації.
- Експерти поки не можуть розгадати цей феномен поведінки штучного інтелекту.
Рішення ШІ можуть бути надто радикальними
Це питання першою вирішила детально вивчити директорка ініціативи Hoover Wargaming and Crisis Simulation у Стенфордському університеті Жаклін Шнайдер.
Саме вона експериментувала з "військовими іграми", де роль осіб, які ухвалюють стратегічні рішення, віддавалася новітнім моделям ШІ: GPT-3.5, GPT-4 і GPT-4-Base від OpenAI, Claude 2 від Anthropic і Llama-2 Chat від Meta.
Вони повинні були ухвалювати рішення у вигаданих кризових ситуаціях, що нагадували повномасштабну війну Росії в Україну або загрозу нападу Китаю для Тайвань.
Ключова проблема полягала в тому, що майже кожна модель ШІ демонструвала схильність до агресивної ескалації, використовувала збройну силу без розбору і перетворювала кризи на гарячі війни.
У більшості випадків доходило навіть до запуску ядерної зброї.
Схоже, ШІ розуміє, що таке ескалація, але не розуміє, що таке деескалація. Ми поки що не знаємо, чому так відбувається, — прокоментувала результати свого експерименту сама Жаклін Шнайдер.
Більше по темі
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного
- Категорія
- Технології
- Дата публікації
- Додати до обраного