Скайнет уже близко: опасности ИИ и нейросетей

Эксперт рассказал про риски внедрения ИИ
4:30

Многие из нас в шутку вспоминают фильм со Шварценеггером про скайнет, который уничтожает мир, когда обсуждают активное развитие искусственного интеллекта. Но мало кто задумывается всерьёз о том, что в реальности технология ИИ, столь активно внедряемая сейчас повсеместно, несёт в себе целый ряд потенциальных рисков, многие из которых могут быть не до конца поняты и признаны обществом. Про основные из них рассказал читателям Pravda.Ru кандидат экономических наук Александр Стародубцев.

Риски внедрения ИИ

Объяснимость и прозрачность

По мере усложнения алгоритмов ИИ, особенно в области глубокого обучения, процесс принятия решений становится трудно интерпретировать или объяснить. Такая непрозрачность, часто называемая проблемой "чёрного ящика", может привести к серьёзным проблемам в приложениях, где понимание процесса принятия решений имеет решающее значение, например, в здравоохранении или уголовном правосудии. Если обоснование решения, принимаемого ИИ, неясно, это может привести к недоверию и потенциальному использованию технологии не по назначению. Особенную опасность представляет то, что эта проблема будет замаскирована тенденцией использовать саму нейронную сеть для объяснения принципов своей собственной работы. Такая интерпретация внешне будет казаться весьма логичной и правдоподобной, но фактически доказать ее корректность в части описания реальной механики работы нейронной сети будет весьма затруднительно.

Этические проблемы и проблемы предвзятости

Несмотря на усилия, направленные на то, чтобы сделать ИИ беспристрастным и этичным, всё ещё существует множество случаев, когда эти системы закрепляют или даже усиливают существующие предубеждения. Часто это происходит потому, что данные, используемые для обучения таких систем, содержат эти предубеждения. Этика ИИ — это развивающаяся область, но проблемы, связанные с обеспечением справедливых и этичных решений, принимаемых системами ИИ, всё еще недооцениваются.

Конфиденциальность и безопасность данных

Для обучения и работы систем ИИ часто требуется большой объём данных, что вызывает озабоченность по поводу конфиденциальности и безопасности. Существует риск, что данные могут быть неправильно обработаны, использованы не по назначению или получены злоумышленниками, что может привести к нарушению конфиденциальности.

Риски зависимости и автономности

Существует опасность того, что чрезмерная зависимость от систем искусственного интеллекта может сделать отдельных людей, компании или даже общества уязвимыми в случае сбоев, взлома или ошибок. Кроме того, существует вероятность того, что ИИ будет принимать решения или совершать действия, которые не были предусмотрены или запланированы его создателями.

Вытеснение рабочих мест

Хотя этот риск часто обсуждается, весь спектр его потенциальных последствий, возможно, ещё недооценен. По мере того, как системы искусственного интеллекта становятся все более совершенными, расширяется круг рабочих мест, которые они потенциально могут автоматизировать. Хотя, скорее всего, будут созданы и новые рабочие места, существует неопределённость в отношении того, будет ли их достаточно, чтобы заменить утраченные, и будут ли перемещённые работники обладать необходимыми навыками для выполнения этих новых работ.

Вредоносное использование ИИ

ИИ может быть использован в злонамеренных целях различными способами, например, для создания подделок, мошенничества, автоматизации кибератак или разработки автономного оружия. Полный спектр потенциальных возможностей использования ИИ в злонамеренных целях, возможно, ещё не до конца изучен.

Регулирование и правовые проблемы

В настоящее время ИИ в основном работает в серой зоне регулирования. Без надлежащих законов и нормативных актов злоупотребления могут быть легко осуществимы. Однако слишком жёсткое регулирование может затормозить инновации. Балансировка между ними — сложная задача.

Уточнения

Иску́сственный интелле́кт (англ. artificial intelligence; AI) в самом широком смысле – это интеллект, демонстрируемый машинами, в частности компьютерными системами.
Литература:

  • Бруссард М. Искусственный интеллект. Пределы возможного. — М.: Альпина нон-фикшн, 2020. — ISBN 978-5-00139-080-0.
  • Девятков В. В. Системы искусственного интеллекта / Гл. ред. И. Б. Фёдоров. — М.: Изд-во МГТУ им. Н. Э. Баумана, 2001. — 352 с. — (Информатика в техническом университете). — 3000 экз. — ISBN 5-7038-1727-7.
  • Люгер Дж. Ф. Искусственный интеллект: стратегии и методы решения сложных проблем = Artificial Intelligence: Structures and Strategies for Complex Problem Solving / Под ред. Н. Н. Куссуль. — 4-е изд. — М.: Вильямс, 2005. — 864 с. — 2000 экз. — ISBN 5-8459-0437-4.
  • Нильсон Н. Искусственный интеллект. — М.: Мир, 1973. — 273 с.

Автор Ирина Гусакова
Ирина Гусакова — обозреватель Правды.Ру
Обсудить