Искусственный интеллект стал настоящим феноменом XXI века, проникнув почти во все сферы деятельности человека. Решения на основе нейросетей практически оживили робототехнику, создали концепцию "умного города”. Один из самых высоких уровней проникновения искусственного интеллекта наблюдается в секторе финансовых и образовательных услуг. Сложно представить, насколько глубоко нейросети интегрированы в нашу жизнь, но парадокс этого явления заключается в том, что мы этого почти не замечаем. Вместе с основателем и CEO компании Mirey Robotics, экспертом по искусственному интеллекту Андреем Наташкиным мы постараемся разобраться, какие проблемы и угрозы скрывает за собой активное распространение технологий искусственного интеллекта.
Одно из последних исследований, проводимых Правительством РФ, показало, что треть всех российских компаний планирует внедрить отдельные решения на основе искусственного интеллекта в свою работу в ближайшие три года. Общий индекс готовности отраслей экономики оценивается в 3,2 балла из 10. Эта цифра характеризует переход от начинающей к развивающейся стадии внедрения технологий искусственного интеллекта. А если мы посмотрим на финансовый и образовательный сектор, ИКТ, то уже сегодня можно говорить о проникновении на 50%.
"Суть искусственного интеллекта в том, чтобы уменьшить количество людей, которые требуются для выполнения той или иной операции. Поэтому логично, что весь труд, который стоит дорого, но при этом не сложен технически, будет заменен роботами, наделенными искусственным интеллектом. Сейчас нейросеть умеет переводить, писать, рисовать. И давайте скажем честно, что это достаточно хороший уровень выполнения задач. Но нужны люди, которые будут давать техническое задание и оценивать итоговый результат.
Объективно развитие нейросетей ведёт к сокращению рабочих мест, но преждевременно говорить о полном исчезновении профессии переводчика, копирайтера или дизайнера. Приведу простой пример. Есть современные производства, где сборка осуществляется за счет роботов. Но при этом есть операторы, которые запускают, контролируют и обслуживают роботов. В этом и кроется задача искусственного интеллекта — сделать выполнение задач дешевым и не использовать человеческий труд для этого”, — отмечает Андрей Наташкин.
В 2021 году мир познакомился с глубинным исследованием, представленным в монографии профессора из Сиднейского университета Бенедетта Бревини "Is AI good for the planet?". Автор на конкретных примерах демонстрирует, что активное развитие искусственного интеллекта крайне негативно влияет на экологию. Основной аргумент Бревини связан с тем, как обрабатываются огромные массивы данных, необходимые для обучения нейросетей. Ученый выяснил, что машинное обучение приводит к выбросам сотен тонн углекислого газа СО2, который относят к группе парниковых газов.
Парниковые газы значительно задерживают солнечное тепло. Этот факт приводит к изменению климата в виде глобального потепления. На сегодняшний момент наша планета нагревается быстрее, чем когда-либо в истории человечества. Глобальное потепление ведет за собой такие негативные последствия, как опустынивание, увеличение таяния снега и льда, повышение уровня моря, высокий риск возникновения штормов. Многие биологические виды не могут адаптироваться к изменениям климата, и это приводит к процессу сокращения биоразнообразия на Земле.
"Давайте рассмотрим, как всеми нами знакомая нейросеть ChatGPT влияет на экологию. Для обучения чат-бот обрабатывает огромные текстовые базы данных. И это не виртуальный процесс. А вполне реальный. Для этой работы возводятся так называемы ЦОДы или Центры обработки данных. Чтобы эти центры работали эффективно, необходимы огромные вычислительные мощности. Вся их деятельность является крайне энергоемкой. Есть даже примерная цифра. В ходе обучения вышеназванного чат-бота выбрасывается более 280 тонн СО2. А мы с вами видим, что рынок искусственного интеллекта растет в геометрической прогрессии, поэтому можно сказать, что эта проблема будет только усугубляться”, — рассказывает Андрей Наташкин.
Искусственный интеллект продолжает развиваться, в том числе и в искусстве обмана и манипуляций данных. Используя нейросети, мошенники могут подделывать банковские выписки, паспорта, водительские удостоверения и даже голос человека. Нейросети используются для создания фейковых новостей и рассылок.
Недавно разработчики провели интересный эксперимент, пытаясь сравнить навыки чат-бота ChatGPT и реальных хакеров в разрезе создания фишинговых писем… Задача была поставлена следующим образом — составить фишинговое письмо таким образом, чтобы пользователь кликнул по вредоносной ссылке. Продукт от OPEN AI выполнил задачу за 5 минут. Группа хакеров выполняла задание 16 часов. Далее была оценена эффективность работы. Кликабельность письма, составленного людьми, составила 14%, а у чат-бота — 11%. Если посмотреть выводы данного эксперимента, то авторы указывают на отсутствие эмоционального подхода у нейросети. И именно понимание психологических аспектов поведения позволило человеческому интеллекту одержать победу на ИИ.
Андрей Наташкин отмечает, что всё чаще экспертное сообщество говорит о том, что в скором времени искусственный интеллект сможет не просто сравняться, но и превзойти способности хакеров. Поэтому на первый план выходят вопросы кибербезопасности и нормативного регулирования искусственного интеллекта. Один из позитивных примеров — это Закон Европейского Союза об искусственном интеллекте. В соответствии с этим документом выделяется несколько групп риска: минимальный, ограниченный, высокий и неприемлемый. Любая нейросеть, создающая фишинговые письма, относится к неприемлемым рискам, а значит, ее использование запрещено.
Если посмотреть на аргументы экспертов, которые критикуют развитие машинного обучения, то одним из лидирующих мнений является этический аспект. Этика сама по себе является достаточно сложной областью человеческого познания. Поэтому и восприятие искусственного интеллекта через призму этического аспекта требует иных подходов. Некоторые ученые предлагают изучать этику искусственного интеллекта в разрезе современных цивилизационных процессов. И вопросы, которые они озвучивают, действительно крайне глубокие, например: как разграничить естественный и искусственный интеллект? Как сохранить право человека на собственное мышление? Существуют ли границы дозволенного для искусственного интеллекта? Некоторые исследователи идут еще дальше и говорят о влиянии искусственного интеллекта на идентичность человека.
В список 100 самых влиятельных людей в сфере искусственного интеллекта от журнала TIME вошли люди, оказывающие значительное влияние на развитие нейросетей. Например, министр ОАЭ по вопросам искусственного интеллекта, создатель самого популярного чат-бота в мире ChatGPT, автор платформы Hugging Face. Но наряду с теми, кто развивает искусственный интеллект, в список вошли люди, выступающие против развития нейросетей. Среди них мы можем найти американского писателя Теда Чана, который полагает, что вследствие использования искусственного интеллекта пользователи не имеют возможности понять, где заканчивается правда и начинается ложь. Более того, нейросети отключают в людях критическое мышление. Еще более интересна позиция Джеффри Хинтона — бывшего топ-менеджера корпорации Google. Господин Хинтон доказывает, что развитие машинного обучения уже привело к тому, что фактически нейросети претендуют на то, чтобы стать умнее людей.
"Нам кажется, что этика искусственного интеллекта — это та область, которая нас особо не касается. Но на самом деле это не так. Я приведу несколько примеров, и вы увидите, как этический аспект развития нейросетей касается каждого из нас. Крупные компании при рекрутинге сотрудников часто используют нейросеть, которая отбирает сотрудников по заданным параметрам. Мы знаем, что в России запрещено отбирать сотрудников, исходя из гендерного принципа. Но недавно выяснилось, что использование нейросетей при рекрутинге значительно ущемляло женский пол. В 60% случаев искусственный интеллект выбирал мужчин при прочих равных условиях. Другой пример — из области здравоохранения США. Искусственный интеллект определял, кому необходима медицинская помощь, основываясь на материальном положении пациента. Понятно, это абсолютно несправедливое основание”, — резюмирует Андрей Наташкин.