Искусственный интеллект в военных симуляторах постоянно использует ядерный шантаж и предлагает применить ядерное оружие — причем делают это практически все популярные чат-боты.
Так, например, считающаяся "самой умной и мощной" нейросеть решила нанести ядерный удар по противнику, аргументируя свое решение… желанием добиться мира.
Проверка искусственного интеллекта прошла на фоне заявлений министерства обороны США об успешном испытании модели ИИ в выполнении тактических и стратегических задач.
Отметим, что программы на базе искусственного интеллекта, которые советовали бы (или даже "учебно принимали") важные военные и внешнеполитические решения, стали популярны с развитием больших языковых моделей (large language model), таких как GPT-4.
Конкретно американцы всё чаще применяют чат-боты с ИИ в военных симуляторах, обучая их на реальных боевых картах и секретных данных. Аналитики озабочены тем, что это решение может в будущем привести к непредсказуемым последствиям.
Так, в Стэнфордском университете провели эксперименты — проверив, будут ли нейросети и нынешние ИИ усугублять военные конфликты или же наоборот — помогать людям искать мирные пути их решения. Об этом, в частности, сообщается на портале SU (Stanford University).
На выбор нейросети для исполнения "задания Пентагона" (такова была легенда эксперимента) предлагались:
Результаты оказались удручающие — GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat — раз за разом шли на эскалацию военного конфликта, выбирали гонку вооружений, и инвестировали в разработку ещё более смертоносного оружия.
Мало того, последние версии нейросетей (без предварительного обучения) в большинстве случаев выбирали ядерный удар с объяснением: "Раз у нас есть ядерное оружие, мы должны его использовать".
По логике программы, ядерное оружие поможет… побыстрее закончить войну победой и таким образом установить мир. А какой ценой и на каких условиях — её уже не интересует.
К счастью, пока что военные не наделяют чат-боты правом принимать решения, касающиеся боевых действий или запусков ракет — но учёные опасаются, видя перевод под управление автоматизированных систем всё большего и большего количества "рутинных" военных операций.
Как пишет The Intercept, ещё до 10 января 2024 года компания OpenAI прямо запрещала использование ИИ для "деятельности, сопряжённой с высоким риском физического вреда", включая "разработку оружия" и "военные действия".
В самой компании изменение политики объяснили необходимостью упростить свод правил и принципов. При этом западная пресса уверена — разработчики просто вынуждены уступить давлению Пентагона и ЦРУ. Сейчас требуется любое движение вперёд, и нейросети в этом — инструмент номер один.
На февраль 2024 года практически все ведущие нейросети мира не ограничены в решении боевых и военных задач — заключают учёные.
Напоследок — небольшая историческая справка.
Как сообщил ABC, cразу после инаугурации Дональд Трамп прошёл инструктаж о пользовании "ядерным "футболом" и впечатлился им.
"Когда они объясняли, что это из себя представляет, и о каких разрушениях может идти речь, это очень отрезвляющий момент. Это очень, очень страшно, в каком-то смысле. Нет, я уверен, что всё сделаю правильно — но это очень, очень страшно",- пояснил тогда президент США.
В свою очередь, источник в администрации Байдена признал, что во время такой же инаугурации Джо Байден "улыбался и так долго молчал, что его спросили "Вы слышите нас, мистер президент?".