Искусственный интеллект (ИИ) пробивает себе дорогу в различные аспекты человеческой жизни, с каждым днем проникая все глубже. Однако ученые все больше обеспокоены тем, насколько нейронные сети становятся самореферентными, что приводит к распространению ошибок. Другая значительная опасность заключается в широком распространении ошибочных представлений и негативных стереотипов о людях.
В виртуальной сфере агрессия, негативные комментарии, сомнительные предложения и выводы распространяются как плодовые мухи. ИИ собирает, синтезирует и использует эту "информацию" как надежный источник, формируя свои рекомендации на основе таких "данных".
Согласно недавнему исследованию, опубликованному в журнале Science, это действительно серьезная угроза. Например, юристы полагаются на советы нейросетей при ведении судебных процессов и вынесении вердиктов.
Если ИИ, впитав негативные мнения об "ограниченности компетенции" определенных социальных групп, начнет давать соответствующие рекомендации в конкретных случаях, юридические ошибки будут встречаться все чаще.