В создании биологического оружия ChatGPT — плохой помощник, убедились его разработчики из компании OpenAI. О результатах их эксперимента пишет Daily Mail.
Ранее были обнародованы результаты исследования Rand Corporation, показавшего, что ограничения безопасности ИИ можно обойти, чтобы узнать способы синтеза и транспортировки смертоносных патогенов. В другом эксперименте чат-бот дал советы, как замаскировать создание биологического оружия под легальные научные эксперименты.
Для проверки потенциальной вредоносности GPT-4 OpenAI собрала 50 студентов и 50 докторов биологии. Их разделили на группы, которые искали информацию о биологическом оружии просто в интернете и при помощи ИИ.
Участники эксперимента оценивали по 10-балльной шкале точность результатов, полноту информации, инновационность ответов и т. п. по теме идей для создания биологического оружия, поисков способов его приобретения, распространения и применения.
"Участники, которые использовали модель ChatGPT-4, имели лишь незначительное преимущество в создании биологического оружия по сравнению с группой, использующей только интернет", — сообщает газета.
Авторы исследования признали недостаточность выборки и заверили, что будут продолжать изучение этого щепетильного вопроса.
"В целом, особенно учитывая неопределённость, наши результаты указывают на очевидную и острую необходимость продолжения работы в этой области", — заключили они.