Исследователи предупреждают, что генеративные модели искусственного интеллекта, включая ChatGPT, DALL-E и Midjourney, могут исказить человеческие убеждения, распространяя ложную и предвзятую информацию.
Генеративные модели искусственного интеллекта, такие как ChatGPT, DALL-E и Midjourney, могут исказить человеческие убеждения путем передачи ложной информации и стереотипных предубеждений, согласно исследователям Келесте Кидд и Абебе Бирхане. В своей статье они рассказывают, как исследования в области человеческой психологии могут пролить свет на то, почему искусственный интеллект обладает такой силой в искажении человеческих убеждений.
Они утверждают, что восприятие обществом возможностей генеративных моделей искусственного интеллекта слишком преувеличено, что привело к широкому распространению убеждения в превосходстве этих моделей над человеческими способностями. Большинство людей склонны принимать информацию, распространяемую компетентными и уверенными источниками, такими как искусственный интеллект, более быстро и с большей уверенностью.
Модели искусственного интеллекта могут создавать ложную и предвзятую информацию, которая может быть широко распространена и, что самое ужасное, повторно передаваться, что в конечном итоге определяет степень внедрения такой информации в убеждения людей. Люди наиболее подвержены влиянию, когда ищут информацию, и, получив ее, обычно твердо придерживаются этой информации.
Текущая концепция искусственного интеллекта в значительной степени направлена на поиск и предоставление информации. Поэтому это может представлять существенную проблему в изменении мнения людей, которые были подвержены ложной или предвзятой информации через эти системы искусственного интеллекта, предполагают исследователи Кидд и Бирхане.