Недавнее исследование, проведенное группой исследователей из Google, проливает свет на темную сторону развития искусственного интеллекта. В то время как ИИ открывает множество возможностей для прогресса, он также создает новые пути для распространения дезинформации и ложной информации в интернете.
Исследование показывает, как ИИ может быть использован для распространения контента, который размывает грань между правдой и вымыслом.
С момента своего появления в 2022 году генеративный ИИ продемонстрировал впечатляющие способности в различных областях, включая обработку естественного языка, создание реалистичных изображений и аудио-визуальный анализ. Эта универсальность привела к внедрению ИИ в такие важные отрасли, как здравоохранение, государственные службы и научные исследования. Однако, как предупреждают исследователи из Google, эта технология также может быть использована во зло.
Анализ, проведенный Google, показывает, что ИИ в настоящее время является основным источником дезинформации на основе изображений. Возросшая доступность инструментов ИИ означает, что практически любой человек может создать контент, вводя подсказки с минимальными техническими знаниями. Предыдущие исследования уже указывали на риски, связанные с неправомерным использованием ИИ, но они не раскрывали конкретные стратегии, используемые злоумышленниками.
В новом исследовании команда Google выявила различные тактики, используемые для распространения ложной информации, созданной ИИ. Анализируя 200 сообщений СМИ о случаях злоупотребления ИИ за период с января 2023 по март 2024 года, исследователи обнаружили, что наиболее частыми случаями являются создание ложных изображений людей и фальсификация доказательств. Такие контенты часто распространяются с целью влияния на общественное мнение, мошенничества или получения прибыли.
Интересно, что большинство случаев злоупотребления не требуют глубоких технических знаний. Вместо этого злоумышленники используют и эксплуатируют возможности инструментов ИИ, что приводит к новым формам злоупотреблений, которые не являются явно вредоносными, но все же потенциально опасными. Исследователи называют это "низкоуровневыми злоупотреблениями", которые размывают границы между достоверной и ложной информацией, вызывая недоверие к цифровой информации и перегружая пользователей необходимостью проверки.
Исследователи также обнаружили, что пользователи могут обходить этические ограничения инструментов ИИ, формулируя подсказки определенным образом или манипулируя входными данными. Это указывает на необходимость многостороннего подхода к снижению рисков злоупотребления ИИ, включая улучшение мер безопасности и повышение осведомленности общественности.
Важно отметить, что исследование Google не включает случаи злоупотребления инструментами ИИ, разработанными самой компанией. Однако результаты все же подчеркивают растущее влияние ИИ на качество цифровой информации и необходимость принятия мер для предотвращения потенциально вредоносного использования этой мощной технологии.