Опровергнута способность нейросетей к созданию биологического оружия

В создании биологического оружия ChatGPT — плохой помощник, убедились его разработчики из компании OpenAI. О результатах их эксперимента пишет Daily Mail.

Ранее были обнародованы результаты исследования Rand Corporation, показавшего, что ограничения безопасности ИИ можно обойти, чтобы узнать способы синтеза и транспортировки смертоносных патогенов. В другом эксперименте чат-бот дал советы, как замаскировать создание биологического оружия под легальные научные эксперименты.

Для проверки потенциальной вредоносности GPT-4 OpenAI собрала 50 студентов и 50 докторов биологии. Их разделили на группы, которые искали информацию о биологическом оружии просто в интернете и при помощи ИИ.

Участники эксперимента оценивали по 10-балльной шкале точность результатов, полноту информации, инновационность ответов и т. п. по теме идей для создания биологического оружия, поисков способов его приобретения, распространения и применения.

"Участники, которые использовали модель ChatGPT-4, имели лишь незначительное преимущество в создании биологического оружия по сравнению с группой, использующей только интернет", — сообщает газета.

Авторы исследования признали недостаточность выборки и заверили, что будут продолжать изучение этого щепетильного вопроса.

"В целом, особенно учитывая неопределённость, наши результаты указывают на очевидную и острую необходимость продолжения работы в этой области", — заключили они.