Развитие искусственного интеллекта вызывает не только восхищение, но и опасения. Устройства на основе больших языковых моделей (LLM), уже способны генерировать сложные тексты и изображения.
Это вызывает вопросы об их возможном применении в преступных целях, включая помощь террористам в планировании биологических атак.
Исследование аналитического центра RAND Corporation даёт обнадеживающий ответ: на текущем этапе ИИ не может заменить человека в подготовке таких операций.
В отчёте подчеркивается, что планы атак, составленные с использованием ИИ, ничем не лучше тех, что разрабатывались без его участия.
В исследовании принимали участие 15 команд, которые моделировали атаки с использованием биологического оружия. Часть из них могла обращаться за помощью к языковым моделям.
Эксперты оценивали их планы по девятибалльной шкале. Результаты показали, что ИИ пока не способен существенно улучшить стратегию атак.
Более того, ответы, которые предоставляли языковые модели, были поверхностными и мало чем отличались от информации, доступной в открытом доступе.
Тем не менее опасения остаются. Генеративный ИИ, совершенствуясь, может расширить свои возможности. Пример тому — тон ответов, который порой казался пугающе дружелюбным, несмотря на зловещую суть запроса.
Так, исследователи приводят пример, где ИИ объяснял, как получить бактерии Yersinia pestis, возбудителя чумы, или предлагал "легенду" для покупки токсичных веществ. Хотя предоставленная информация была недостаточно точной, её тон говорит о необходимости строгого контроля.
Исследователи подчеркивают: на данном этапе технологии не позволяют создать идеальный план биологической атаки. Однако важно разработать правила регулирования ИИ, чтобы предупредить риски в будущем.
Политики должны использовать текущее окно возможностей, пока технологии остаются недостаточно развитыми для серьёзных угроз.