Чтобы искусственный интеллект работал, человеку сначала нужно разобраться в себе

Есть два взгляда на искусственный интеллект. Одни считают, что эти технологии могут пойти человечеству только на пользу, другие — что рано или поздно их развитие приведёт к "бунту машин". Поэтому надо, помимо алгоритмов искусственного мышления, разрабатывать также защитные механизмы, которые не позволят машинам и роботам нанести человеку вред.

"Глубокое обучение"

В июле прошлого года на международном шахматном форуме робот-шахматист сломал палец мальчику, который был его партнером по игре. Организаторы заявили, что ребёнок слишком быстро сделал ход и нарушил правила безопасности, либо робот принял его палец за одну из фигур. Но, так или иначе, прецедент уже имел место.

Ещё пример. Совсем недавно, во время испытаний новейшего "робота-водителя" от компании Tesla, автомобиль, едущий со скоростью 40 километров в час, трижды сбил стоящий у него на пути манекен, изображающий ребёнка. ИИ оказался просто не в состоянии идентифицировать пешехода.

Алан Тьюринг, знаменитый эксперт в области искусственного интеллекта, в одной из своих лекций заявил, что машины можно будет назвать обладающими интеллектом, когда они научатся отклоняться от заданных программ и принимать самостоятельные решения. Но это, добавлял Тьюринг, станет возможным, если алгоритмы не будут копировать интеллект зрелого индивида, а станут проходить процесс обучения.

Предположим, будет создана программа, обладающая интеллектом на уровне ребёнка, и другая, которая будет "воспитывать" этого ребёнка с помощью системы поощрений и наказаний.

Ещё в далеком 1952 году программист Артур Сэмюэл создал программу для игры в шашки, способную с каждой партией улучшать свои результаты. Алгоритм оценивал позиции фигур на доске и запоминал, какие из них приводили к выигрышу. В наши дни это называется "обучением с подкреплением".

Суть в том, что программа имитирует работу человеческого мозга, то есть обмен данными между группами нейронов. Такие программы сегодня называют нейронными сетями.

"Проблема ранних нейросетей в том, что они могли решать только игровые задачи, — комментирует один из основателей американской компании OpenAI Илья Суцкевер. — Их нельзя было масштабировать, использовать для других целей. Но современные модели глубокого обучения не только универсальны, а ещё и компетентны — если вы хотите получить наилучшие результаты во многих сложных задачах, вы должны использовать глубокое обучение. Это масштабируемо".

Такие системы способны решать массу задач:

Но где же тут кроется опасность?

"Мы строим оптимизирующие машины, даём им задачи, и они их решают, — пишет ещё один эксперт в сфере ИИ, Стюарт Рассел. — Машины разумны настолько, насколько можно ожидать, что их действия приведут к поставленным целям. Но что, если цель будет поставлена неверно?"

Все, кто имел дело с роботами-пылесосами, знают, что те редко способны отличить валяющиеся на полу ценные предметы от обычного мусора. А если это будет гигантский робот-уборщик с более масштабными задачами? Например, по очистке целого города? И у него на пути встанут люди или животные?

Гарриет и Робби

Стюарт Рассел полагает, что просчитать все нюансы при выполнении той или иной задачи практически невозможно.

Поэтому единственным способом предотвратить вредоносные действия со стороны ИИ может стать "фактор неуверенности". То есть, в двусмысленных ситуациях машина должна обращаться за вмешательством к человеку.

Такую ситуацию иллюстрирует условный пример с женщиной по имени Гарриет и роботом Робби, который должен забронировать для своей хозяйки номер в отеле. Здесь включается система вознаграждения, которое будет тем выше, чем более довольна останется Гарриет выбором Робби. Если он вообще ничего не сделает, то и не получит никакой награды. Но Робби может спросить Гарриет, хочет ли она, чтобы он продолжал свои действия по бронированию номера, или предпочитает, чтобы он их прекратил.

Начать с себя

Разумеется, этот подход нельзя назвать оптимальным при решении более глобальных задач, где требуется согласование между несколькими индивидами или структурами? А если ситуация требует мгновенного принятия решения? Или человек не владеет нужной информацией, а программа не может довести эту информацию до его понимания?

Так что, утверждает научный руководитель института Mila в Монреале (Канада) Йошуа Бенжио, начинать нужно не с постановки задач перед ИИ, а с нас, людей: