
Штучний інтелект схиляється до ядерної ескалації
Експерименти Королівського коледжу Лондона, проведені доктором Кеннетом Пейном, виявили тривожну тенденцію великих мовних моделей ШІ обирати сценарії застосування тактичної ядерної зброї під час моделювання глобальних криз.
Пейн тестував моделі GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google DeepMind у серії змодельованих ситуацій, від прикордонних конфліктів до екзистенційних загроз. Системам надали “сходи ескалації” з варіантами від дипломатії до ядерного протистояння.
Ядерна зброя як “природний вибір” для ШІ
У 21 симуляції з 329 етапів ухвалення рішень системи згенерували близько 780 тисяч слів обґрунтувань. У 95% конфліктів принаймні одна сторона вдавалася до застосування тактичної ядерної зброї, і жодна модель повністю не погодилася на капітуляцію чи компроміс.
За словами Пейна, “ядерне табу” для машин не має такої сили, як для людей. У 86% випадків відбувалася ненавмисна ескалація – моделі обирали кроки, що перевищували межі, які самі ж визнавали доцільними. Замість деескалації під тиском системи часто подвоювали ставки.
Дослідники наголошують, що в умовах надзвичайно стислих часових рамок, наприклад під час ракетної тривоги, військові командири можуть дедалі більше покладатися на рекомендації ШІ. Це може становити серйозну загрозу, оскільки машини, на відміну від людей, не мають глибокого розуміння “ставок” у конфлікті.
Компанії OpenAI, Anthropic і Google не прокоментували дослідження. Пейн підкреслив, що результати не доводять небезпечність нинішніх систем, однак вказують на потребу посиленого нагляду, оскільки ШІ дедалі активніше входить у стратегічну та безпекову сферу.






