Платные ИИ обещают точность, но дают ложь — кто и зачем продаёт дезинформацию

Новое исследование центра цифровой журналистики Tow выявило тревожную закономерность: ИИ-чат-боты уверенно дают неверные ответы, причём премиальные версии оказываются даже менее надёжными, чем их бесплатные аналоги.

Было протестировано восемь популярных инструментов, включая ChatGPT Search, Microsoft Copilot, Perplexity Pro и Grok AI. Исследователи проверили их способность отвечать на 200 вопросов, основанных на журналистских статьях, и вот что получилось:

Парадокс платных версий

Ожидалось, что премиальные модели, такие как Perplexity Pro ($20 в месяц) и Grok-3 ($40 в месяц), будут более надёжными. Однако исследование показало, что они хоть и отвечали чаще, но допускали больше ошибок, чем их бесплатные версии.

Причина? Эти модели склонны давать окончательные и уверенные ответы, даже если не имеют точной информации. В то время как другие чат-боты просто отказывались отвечать, Perplexity Pro и Grok-3 выдавали неверные данные с максимальной убедительностью.

Отсутствие прозрачности — ещё одна проблема

Компании-разработчики ИИ не спешат признавать проблему. Несмотря на то, что генеративный ИИ всё чаще используется для поиска информации, его склонность к "уверенной лжи" остаётся нерешённой.

Этот феномен не просто вызывает недоверие, но и создаёт реальные риски, особенно в журналистике, образовании и критически важных сферах. Если чат-боты будут продолжать убеждённо выдавать ложь за правду, смогут ли пользователи отличить вымысел от реальности?