Учёные из Дармштадта и Бата: большие языковые модели не опасны

Новое исследование, проведенное группой учёных из Технического университета Дармштадта под руководством Ирины Гуревич и Университета Бата под руководством Хариша Тайяра Мадабуши, оспаривает распространенные опасения по поводу самостоятельности больших языковых моделей (LLM), таких как ChatGPT.

Результаты исследования показывают, что современные LLM не способны выходить из-под контроля и действовать автономно.

Хотя использование ИИ может сопровождаться нежелательными последствиями, исследование утверждает, что эти модели ограничены в своих возможностях и не могут обучаться или развиваться без активного участия человека.

"Наше исследование демонстрирует, что страх перед нежелательными и непредсказуемыми действиями моделей не обоснован", — отмечает Тайяр Мадабуши.

Несмотря на то что LLM могут вести достаточно связные беседы и их сложность продолжает расти, им по-прежнему не хватает важных навыков, таких как оценка достоверности информации. Исследование подтверждает, что пока модели действуют в рамках заданного им программирования, поводов для беспокойства нет.

Тем не менее учёные подчеркивают, что реальную угрозу могут представлять не сами технологии, а человеческий фактор. С ростом использования ИИ увеличиваются риски, связанные с распространением фейковых новостей и цифровым загрязнением.

"Нам нужно сосредоточиться на рисках, которые могут возникнуть из-за использования этих технологий, а не на их потенциальных угрозах как самостоятельных систем", — отмечает Ирина Гуревич.