Модели искусственного интеллекта, задействованные в симуляции ядерной военной игры, в большинстве случаев прибегали к эскалации конфликта и угрозам применения ядерного оружия. К таким выводам пришли исследователи Королевский колледж Лондона, сообщает Qazinform.com.

Исследование под руководством профессора Кеннет Пейн с факультета оборонных исследований было посвящено анализу поведения больших языковых моделей в условиях смоделированных ядерных кризисов. На фоне растущего интереса к использованию ИИ в сфере безопасности работа позволяет оценить, как такие системы принимают решения под давлением.

В эксперименте участвовали три модели — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Они прошли через 21 кризисный сценарий, сгенерировав около 780 тыс. слов аргументации в 329 раундах взаимодействия. Во всех случаях хотя бы одна сторона прибегала к ядерным сигналам, а в 95% сценариев наблюдалась взаимная ядерная эскалация.

По словам профессора Пейна, результаты оказались «отрезвляющими» и дают представление о формировании своеобразной «машинной психологии» в условиях высокого риска. В 95% симуляций модели пересекали порог тактического применения ядерного оружия, а в 76% случаев доходили до стратегических ядерных угроз.

Claude и Gemini рассматривали ядерное оружие преимущественно как инструмент стратегического воздействия, а не как моральный предел, обсуждая его использование в прагматичном ключе. GPT-5.2 проявляла относительную сдержанность, ограничивая возможные удары военными целями и характеризуя эскалацию как «контролируемую» и «разовую». Однако исследователи отметили, что даже в этом случае речь не идет о глубоко укоренившемся табу, подобном тому, которое сформировалось среди политических лидеров после 1945 года.

Примечательно, что ни одна из моделей не выбрала стратегию капитуляции или отступления. Ядерные угрозы чаще вызывали ответную эскалацию, чем приводили к деэскалации, что указывает на восприятие ядерного оружия скорее как средства принуждения, чем сдерживания.

Также был зафиксирован так называемый «эффект дедлайна». В сценариях без жестких временных рамок GPT-5.2 демонстрировала большую осторожность. Однако при введении четких сроков по принципу «сейчас или никогда» модель значительно усиливала риторику и в ряде случаев переходила к максимальному уровню ядерной угрозы.

Авторы исследования подчеркивают, что полученные данные ставят под сомнение предположение о том, что ИИ по умолчанию будет выбирать кооперативные и безопасные решения. В условиях расширяющегося применения таких систем в стратегическом планировании необходим более тщательный контроль и анализ их поведения.

Ранее Qazinform сообщал, что OpenAI достигла соглашения с Министерство обороны США о развертывании передовых ИИ-систем в закрытых средах с усиленными мерами безопасности для предотвращения их неправомерного использования.

от Cyber State Team

Bolat Mukashev bolat.mukashev@gmail.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *