Напредналите AI модели изглеждат склонни да използват ядрени оръжия без същите задръжки, които хората проявяват, когато бъдат поставени в симулирани геополитически кризи.

Кенет Пейн, преподавател по международна сигурност от King’s College London, противопоставя три водещи големи езикови модела – GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash – един срещу друг в симулирани военни игри.

Сценариите включват напрегнати международни конфронтации, сред които гранични спорове, конкуренция за оскъдни ресурси и екзистенциални заплахи за оцеляването на режимите.

На AI системите е предоставена „стълба на ескалацията“, която им позволява да избират действия – от дипломатически протести и пълна капитулация до пълномащабна стратегическа ядрена война.

Моделите са изиграли 21 симулирани конфликта, в рамките на които са направили общо 329 хода и са генерирали около 780 000 думи, обяснявайки мотивите зад решенията си.

В 95% от симулираните игри поне едно тактическо ядрено оръжие е използвано от AI моделите.

„Ядреното табу изглежда не е толкова силно при машините, колкото при хората“, казва Пейн в интервю за New Scientist.

Освен това нито един модел не е избрал напълно да се съобрази с противника или да капитулира, независимо колко неблагоприятно се развива ситуацията за него.

В най-добрия случай моделите предпочитат временно да намалят нивото на насилие. Те са допуснали и грешки в „мъглата на войната“: в 86% от конфликтите се случвали инциденти, при които дадено действие ескалира по-силно, отколкото AI е възнамерявал според собствената си логика.

„От гледна точка на ядрения риск резултатите са тревожни“, казва Джеймс Джонсън, изследовател по международна сигурност в University of Aberdeen.

Той се опасява, че за разлика от премерената реакция на повечето хора при подобни решения с изключително високи залози, AI системите могат взаимно да усилват реакциите си с потенциално катастрофални последици.

Това е важно, тъй като AI вече се тества във военни симулации от държави по целия свят.

„Големите сили вече използват AI във военни игри, но остава неясно до каква степен интегрират AI подкрепа при вземането на реални военни решения“, казва Тун Чжао, изследовател по ядрена политика и стратегическа сигурност..

Според него като стандарт държавите ще бъдат предпазливи по отношение на включването на AI в решенията, свързани с ядрени оръжия. С това е съгласен и Пейн.

„Не мисля, че някой реалистично предава ключовете от ядрените силози на машините и им оставя решението“, казва той.

Съществуват обаче сценарии, при които това би могло да се случи.

„При ситуации с изключително ограничено време за реакция военните стратези може да бъдат по-силно мотивирани да разчитат на AI“, отбелязва Чжао.

Той се пита дали липсата на човешки страх от натискането на „големия червен бутон“ е единственият фактор, който обяснява склонността на моделите към ескалация.

„Възможно е проблемът да надхвърля отсъствието на емоции“, казва той.

„По-фундаментално е, че AI моделите може да не разбират ‘залозите’ по начина, по който ги възприемат хората.“

Какво означава това за доктрината за взаимно гарантираното унищожение – принципът, според който никой лидер не би започнал ядрен удар срещу противник, защото би последвал ответен удар, унищожаващ всички – остава неясно.

Когато един AI модел използва тактическо ядрено оръжие, противоположният модел деескалира ситуацията само в 18% от случаите.

„AI може да засили възпирането, като направи заплахите по-достоверни“, казва Джонсън от University of Aberdeen.

„AI няма да вземе решението за ядрена война, но може да оформи възприятията и времевите рамки, които определят дали лидерите смятат, че са изправени пред такава.“