Запретить нельзя развивать: суперинтеллект ближе, чем мы думаем

Мир технологий захлестнула новая волна обсуждений после январского релиза DeepSeek-R1, большой языковой модели от компании DeepSeek. Несмотря на свою молодость (компания основана в 2023 году), DeepSeek представила ИИ, сопоставимый по интеллектуальным возможностям с последней разработкой американского гиганта OpenAI, но созданный при значительно меньших затратах.

Секрет эффективности R1 кроется в инновационном подходе к разработке. DeepSeek заявляет о бюджете в 6 миллионов долларов, что в десять раз меньше, чем расходы американских конкурентов, таких как OpenAI и Anthropic, на создание аналогичных по мощности ИИ. Успех DeepSeek объясняется целым рядом небольших, но эффективных инженерных решений, позволивших добиться выдающихся результатов с минимальными вложениями. Компания нашла новые способы оптимизации обучения ИИ на имеющихся данных.

Улучшенные рассуждающие способности R1 достигнуты благодаря тому же методу, что и в последней модели OpenAI: "обучение с подкреплением". Суть метода заключается в том, что ИИ решает математические и вычислительные задачи, а программа проверяет правильность ответов и вознаграждает ИИ за успешные рассуждения. Этот автономный цикл самосовершенствования позволяет R1 тщательнее обдумывать ответы и достигать так называемых "моментов озарения", когда ИИ, осознав неверный подход, начинает решение задачи с нуля, выбирая более перспективное направление.

Аналогичный подход используется OpenAI, Meta* и Anthropic. Это не научный прорыв, а скорее инженерная находка, которую легко адаптировать. В сочетании с мощными вычислительными ресурсами, такие находки становятся ключом к созданию все более интеллектуальных ИИ.

Новый ИИ DeepSeek — очередной этап в гонке за создание общего искусственного интеллекта — ИИ, сравнимого или превосходящего человека по интеллекту. Многомиллиардные корпорации стремятся не просто к созданию продвинутых чат-ботов. Их цель — машины, превосходящие людей в большинстве задач, так называемый суперинтеллект. OpenAI описывает это как "высокоавтономные системы, которые превосходят людей в большинстве экономически ценных работ". Именно поэтому разработчики ИИ сосредоточены на создании универсальных рассуждающих систем, способных анализировать проблемы и действовать автономно в реальном мире, а не просто заменять поисковые системы. Руководители компаний, от OpenAI и Anthropic до DeepSeek, предсказывают появление общего искусственного интеллекта в ближайшие годы.

DeepSeek-R1 подтверждает, что гонка за ИИ не основана на фундаментальных научных открытиях. Это скорее совокупность инженерных решений, постоянно улучшающих существующие ИИ. Простота кода DeepSeek делает его легко воспроизводимым разработчиками по всему миру.

Отсутствие регулирования в сфере исследований ИИ означает, что любые инновации, разработанные в США, быстро распространяются по миру, включая государства с нестабильной политической обстановкой. Поэтому разговоры о "лидерстве" в области ИИ иллюзорны, если не ограничить разработку мощных ИИ. Без контроля над распространением ИИ такие страны, как Северная Корея, могут использовать инновации США или Китая для усиления кибер- и физических атак.

Распространение ИИ опасно и катастрофическими рисками, связанными с развитием общего искусственного интеллекта. Если Общего искусственный интеллект будет создан, он сможет самостоятельно проводить исследования в области ИИ, что приведет к появлению сверхинтеллекта, превосходящего человечество. В этом случае люди просто потеряют контроль над своим будущим.

Лауреаты Нобелевской премии, ведущие ученые в области ИИ и руководители компаний предупреждают, что снижение риска вымирания из-за ИИ должно стать глобальным приоритетом. Без глобальных мер попытки создания общего искусственного интеллекта будут множиться, и любой неудачный проект приведет к катастрофе для всего человечества. Как хорошо и ёмко выразился Сэм Альтман, генеральный директор OpenAI: "Свет погаснет для всех нас".

Ускорение развития ИИ с помощью самого ИИ — тупиковый путь. На данный момент никто не знает и не представляет, как контролировать автономные ИИ, превосходящие человека по интеллекту. Первый же, кто создаст такой ИИ, потеряет над ним контроль, что может привести к катастрофе. Единственный победитель в гонке вооружений ИИ — это сам ИИ: не США, не Китай, ни одно другое государство.

Единственное решение — запретить разработку опасных форм ИИ во всем мире: достичь международного соглашения о запрете разработки сверхразума и ввести взаимный контроль, как это было сделано с химическим оружием и клонированием человека.

У президента Дональда Трампа есть возможность заключить такую сделку. Будущее зависит от того, кто победит в новом Белом доме: фракция, опасающаяся неконтролируемого развития ИИ (Илон Маск, Дэвид Сакс), или сторонники гонки за сверхинтеллектом из Big Tech. Это определит не только будущее технологий США, но и всего человечества.

*признана экстремистской организацией

Уточнения

Большая четвёрка, Банда из четырёх, GAMA, Большая пятёрка, GAMAM или Big Tech — это имена, используемые для описания четырёх или пяти американских транснациональных онлайн-сервисов или компьютерных и программных компаний, которые доминировали в киберпространстве в течение 2010-х годов.

Автор Назар Назаренко
Назар Назаренко — журналист, корреспондент медиахолдинга Правда.Ру
Обсудить

Сообщить автору об опечатке:

Адрес страницы с ошибкой:

Текст с ошибкой:

Ваш комментарий: