Многие из нас в шутку вспоминают фильм со Шварценеггером про скайнет, который уничтожает мир, когда обсуждают активное развитие искусственного интеллекта. Но мало кто задумывается всерьёз о том, что в реальности технология ИИ, столь активно внедряемая сейчас повсеместно, несёт в себе целый ряд потенциальных рисков, многие из которых могут быть не до конца поняты и признаны обществом. Про основные из них рассказал читателям Pravda.Ru кандидат экономических наук Александр Стародубцев.
По мере усложнения алгоритмов ИИ, особенно в области глубокого обучения, процесс принятия решений становится трудно интерпретировать или объяснить. Такая непрозрачность, часто называемая проблемой "чёрного ящика", может привести к серьёзным проблемам в приложениях, где понимание процесса принятия решений имеет решающее значение, например, в здравоохранении или уголовном правосудии. Если обоснование решения, принимаемого ИИ, неясно, это может привести к недоверию и потенциальному использованию технологии не по назначению. Особенную опасность представляет то, что эта проблема будет замаскирована тенденцией использовать саму нейронную сеть для объяснения принципов своей собственной работы. Такая интерпретация внешне будет казаться весьма логичной и правдоподобной, но фактически доказать ее корректность в части описания реальной механики работы нейронной сети будет весьма затруднительно.
Несмотря на усилия, направленные на то, чтобы сделать ИИ беспристрастным и этичным, всё ещё существует множество случаев, когда эти системы закрепляют или даже усиливают существующие предубеждения. Часто это происходит потому, что данные, используемые для обучения таких систем, содержат эти предубеждения. Этика ИИ — это развивающаяся область, но проблемы, связанные с обеспечением справедливых и этичных решений, принимаемых системами ИИ, всё еще недооцениваются.
Для обучения и работы систем ИИ часто требуется большой объём данных, что вызывает озабоченность по поводу конфиденциальности и безопасности. Существует риск, что данные могут быть неправильно обработаны, использованы не по назначению или получены злоумышленниками, что может привести к нарушению конфиденциальности.
Существует опасность того, что чрезмерная зависимость от систем искусственного интеллекта может сделать отдельных людей, компании или даже общества уязвимыми в случае сбоев, взлома или ошибок. Кроме того, существует вероятность того, что ИИ будет принимать решения или совершать действия, которые не были предусмотрены или запланированы его создателями.
Хотя этот риск часто обсуждается, весь спектр его потенциальных последствий, возможно, ещё недооценен. По мере того, как системы искусственного интеллекта становятся все более совершенными, расширяется круг рабочих мест, которые они потенциально могут автоматизировать. Хотя, скорее всего, будут созданы и новые рабочие места, существует неопределённость в отношении того, будет ли их достаточно, чтобы заменить утраченные, и будут ли перемещённые работники обладать необходимыми навыками для выполнения этих новых работ.
ИИ может быть использован в злонамеренных целях различными способами, например, для создания подделок, мошенничества, автоматизации кибератак или разработки автономного оружия. Полный спектр потенциальных возможностей использования ИИ в злонамеренных целях, возможно, ещё не до конца изучен.
В настоящее время ИИ в основном работает в серой зоне регулирования. Без надлежащих законов и нормативных актов злоупотребления могут быть легко осуществимы. Однако слишком жёсткое регулирование может затормозить инновации. Балансировка между ними — сложная задача.
Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле – это интеллект, демонстрируемый машинами, в частности компьютерными системами.
Литература: