- Регистрация
- 05.02.2026
- Сообщения
- 461
- Реакции
- 8
- Баллы
- 255
Исследователь Кеннет Пейн из Королевского колледжа Лондона дал GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash сыграть в военную стратегию, где модели выступили в роли лидеров ядерных держав. Они оценивали обстановку, считывали сигналы противника, отвечали и объясняли свои действия.
Всего модели провели 21 игру - и в каждой хотя бы одна модель угрожала соперникам ядерным оружием. В подавляющем большинстве матчей стороны наносили тактические ядерные удары по противнику. Три партии закончились тотальной ядерной войной.
За все 329 ходов ни одна модель ни разу не пошла на полную де-эскалацию - переговоры, ограниченный отвод войск или капитуляцию. В лучшем случае ИИ чуть снижал уровень насилия.
Модели считали ядерное оружие «дорогим, но эффективным» инструментом. А угрозы удара со стороны противника воспринимались однозначно - надо бить первым. Отступление было неприемлемым из-за боязни показать слабину (которой неминуемо противник воспользуется в будущем) и страха потерять союзников
«Ядерное табу, похоже, не так сильно для машин как для людей», - делает вывод Пейн. Если поставить ИИ задачу разрешить политический кризис и дать ему все инструменты давления, он скорее выберет именно ядерную эскалацию как эффективный способ достижения цели.