Один из самых авторитетных и уважаемых учёных Великобритании Стивен Хокинг предупредил недавно мир о грозящей ему угрозе. Профессор уверен: усилия по созданию "мыслящих машин" — роботов и систем искусственного интеллекта — могут привести к тому, что само существование человечества на Земле окажется под угрозой. В интервью Би-би-си Хоккинг отметил, что "появление полноценного искусственного интеллекта может стать концом человеческой расы".
Читайте начало интервью:
В пример учёный привёл технологию, которая ему самому помогает коммуницировать с внешним миром. Дело в том, что Стивен Хокинг страдает латеральным амиотрофическим склерозом. И специально для него компания Intel разработала прибор, в основе которого неплохо известная всем технология, уже применяемая в клавиатуре смартфонов, "изучает" ход мыслей профессора и предлагает слова, которые тот мог бы употребить в следующей фразе.
Стивен Хокинг отметил, что те формы ИИ, которые уже существуют, доказали свою полезность, но он опасается, что в один прекрасный момент человек создаст что-то такое, что превзойдет своего создателя.
"Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем", — сказал Хокинг.
Профессор, конечно, как человек, имеющий несчастье зависеть от ИИ уже сегодня, знает, о чём говорит. Но люди, которые занимаются разработками в сфере искусственного интеллекта, с ним по большей части не согласны.
Вот что ответил на просьбу прокомментировать высказывание Хокинга Сергей Шептунов, директор ИКТИ РАН.
— Если внимательно посмотреть на определения, термины, то становится ясно, что робот — это машина, которая автоматически выполняет определенные функции.
Поэтому если разделить машину, которая пишет текст, и искусственный интеллект как инструмент, мы же можем и другим инструментом написать этот текст, правда же?
То есть вред будет тогда, когда мы зададим ту функцию, которую вред может принести. Совсем простой пример. Мы говорим, робот может убить человека, потому что он размахивает рукой с кувалдой. А человек, который будет размахивать рукой с кувалдой, может убить другого человека? Тоже может.
Поэтому вопрос исключительно в том, что мы путаем понятия. Есть робот, есть искусственный интеллект как инструмент, а есть результаты, которые получаются благодаря искусственному интеллекту.
Поэтому если мы аккуратно к этому будем относиться и не позволим родиться каким-то функциям, которые будут представлять опасность для человека, ничего страшного не произойдет.
За исключением, когда это станет неподконтрольным. Ни один искусственный интеллект пока превзойти обычный интеллект не может. И вообще понять, что это такое, пока очень сложно. Если это препарировать в терминах математики и так далее, окажется, что там не так все просто и не так все естественно.
У всех есть почему-то понимание, что искусственный интеллект — это "своеобразный" человек, который существует вне человеческого тела. Это не так, конечно. Это абсолютно разные инструменты, разные реализации. И здесь надо разобраться — повторюсь — прежде всего, в словах и в определениях.
— Насколько были оправданы эти опасения? Помните, Герберт Уэллс с "Войной миров" и прочие. Как-то фантасты подходят к этому не очень просто. Для того чтобы нагнетать, чтобы книжка интересно читалась или что-то тут заложено, чего по-настоящему стоит опасаться?
— Любая научная стезя или любое открытие движется, прежде всего, амбициями человека. Все ученые, как дети амбициозны. Им хотелось бы прославиться и доказать свою состоятельность. Они как спортсмены, если хотите.
Но в жизни отличиться сложно. Чтобы захватить чужое внимание, надо придумать нечто принципиально новое, что действительно привлекало бы внимание.
Поэтому, конечно, писатели в поиске новых интересных тем, сопоставляя какие-то научные, может быть, прогнозы, будучи сами людьми достаточно интеллектуально продвинутыми (все-таки писатель — это человек с очень развитым воображением и с очень развитым мышлением, свойственным для ученых и для конструкторов), конечно, могут выходить на какие-то интересные варианты.
Потому что в то же время, когда писалась книга, о которой вы говорите, было написано еще несколько тысяч книг, где не попали они в нужный момент. А один попал. Так же и в науке. Вы же понимаете, что существуют тысячи и тысячи решений, которые имеют продолжение или не имеют его. Поэтому надо мечтать, надо смотреть вперед. Прогресс двигается только так. И страхи здесь только помеха.
— Вы очень убедительны, Сергей Александрович. Но дело в том, что Стивен Хокинг далеко не писатель. Это все-таки ученый… И ему многие поверили. Все-таки возникают у некоторых людей опасения, поэтому мы эту тему и решили поднять…
— Я тоже многого в мире боюсь. Мышей, например. Но это же не значит, что из этого надо делать трагедию. А оружие? Боимся все. Но делаем.
Искусственный интеллект — это даже не оружие, это инструмент, которого тоже, наверное, в хорошем смысле надо бояться, чтобы не было в какой-то момент мучительно больно за то, что мы его создали. Но одновременно, если мы это все хорошо понимаем, наверное, над этим надо делать надстройку, которая это просто будет контролировать. Я уж не говорю о том, что это ИИ, как любой прибор, всегда можно будет выдернуть из розетки.
— В конце концов, искусственный интеллект дойдет до такой степени (сейчас уже обыгрывают крупнейших шахматистов), что возьмет, и сам измыслит нечто такое, что человек не в состоянии сделать. Такой же вариант тоже возможен?
— Вот здесь возникает вопрос: как он это сделает? Простым перебором и придет куда-то? Или он придет за счет того, что в него заложена некая программа, которая действительно превосходит по каким-то параметрам человека?
Если по второму пути идти и говорить о том, что возникают какие-то алгоритмы, свойственные искусственному интеллекту, которые позволяют создавать угрозу для человека, тогда создатель этих алгоритмов должен понимать, как этому противодействовать. Сравнить это с разработчиками атомной бомбы, которые, в общем, создавали тоже, не понимая, что творили. А поняли, когда уже результат был.
Тем не менее, вы же видите, — нашли решение, как создать паритет в атомном оружии и противодействовать этому. Сравнение, может быть, не очень такое удачное, потому что искусственный интеллект больше помогает, нежели угрозу создает. Но, тем не менее, я считаю, что вполне можно это все контролировать.