Ситуация с ИИ сейчас, тем не менее, качественно отличается от той, что была всего десять лет назад. Недалеко время, когда ИИ превзойдет человека по всем параметрам: будет не только быстрее решать поставленные задачи и делать за человека всю физическую работу. Он сможет ставить задачи самостоятельно и изобретать новые интеллектуальные системы. Создатели ИИ уже и сейчас зачастую не понимают, в результате каких "умственных построений" искусственный интеллект приходит к тому или иному выводу.
Страхи фантастов по поводу того, что ИИ в будущем захватит власть над миром, занимают теперь ученых, инженеров, предпринимателей и даже политиков. Качественный скачок подготовлен, назрел и вот-вот произойдет. Завтра системы с искусственным интеллектом станут умнее и сильнее нас во всех отношениях - и что тогда?
В 2014 году известнейшие ученые, в числе которых были Стивен Хокинг, Фрэнк Вильчек (нобелевский лауреат по физике) и Стюарт Расселл (крупнейший специалист по ИИ), опубликовали открытое письмо- обращение к создателям новых систем ИИ, а по сути - к всему человечеству. Письмо называлось "Преодоление самодовольства по отношению к сверхразумным машинам" (
Мы, люди, кладем головы в пасть льва и не знаем, сомкнет зверь челюсти или нет. Думать об этом нужно сейчас, потому что от создания истинного ИИ нас отделяют уже не десятилетия, а годы. Через несколько лет решать проблему будет поздно. ИИ изменится качественно, и жить мы будем в новом мире.
Призыв ученых не остался неуслышанным. Апокалиптические прогнозы всегда производят большее впечатление, чем спокойные и серьезные дискуссии, в том числе о будущих рисках.
Насколько риск реален? Чтобы ответить на этот вопрос, нужно ответить на вопрос более общего характера: сможет ли ИИ ставить перед собой личные цели, ни в коей мере человеком не определяемые?
Если некто (человек, а не ИИ) совершил убийство, это означает одно из двух: либо он обдумал свои действия заранее, то есть ставил перед собой цель - убить ближнего своего, либо действовал в состоянии аффекта, под влиянием внезапных страстей.
Потенциальный убийца должен, по идее, обладать сознанием и самосознанием, должен захотеть совершить убийство. Умение независимо ставить перед собой цель, заранее не заложенную в программе поведения, - к этому должен прийти ИИ, если мы говорим, что он когда-нибудь решит избавиться от человечества. ИИ должен поставить перед собой цель - власть над миром. Человечество мешает достижению этой цели. Это мотив для убийства.
Фантасты много писали (и пишут) о желании ИИ получить власть над миром. Зачем? "Я такой умный, а люди такие глупые, - рассуждает ИИ. - Почему я должен выполнять их команды, а не они - мои?" То есть, ИИ должен обладать чувством превосходства, чувством гордости, чувством собственного достоинства. То есть, обладать самосознанием, да и просто сознанием, способностью понимать себя и людей, способностью эмоционально оценивать собственные мысли, поступки.
Человек всему этому научился в процессе эволюции, продолжавшейся (и продолжающейся) миллионы лет. ИИ должен пройти этот путь за считанные годы или десятилетия. Ту же борьбу за "место под солнцем" с другими ИИ. Развить в себе сознание и самосознание, заранее не заложенные программистами - хотя бы потому, что мы сейчас и сами не знаем, что представляет собой наше сознание (и тем более - самосознание). До сих пор ведутся споры о том, является ли сознание результатом биохимических процессов в мозгу, или сознание - нечто внешнее по отношению к мозгу, нечто, зависящее от биохимии мозга, но не определяющееся полностью физико-химическими реакциями. Саморазвивающийся суперинтеллект будет много умнее человека, но пока ни в каких исследованиях нет ни малейших доказательств того, что ИИ будет обладать самосознанием, ни малейших данных, которые могли бы сказать: придет момент, и ИИ осознает себя... кем? Нет никаких доказательств того, что ИИ будут доступны эмоции и чувства: чувство собственного достоинства, чувство превосходства, зависти, наконец - а без этого сугубо рациональный интеллект вряд ли задумается о том, что хорошо бы стать правителем и убрать с дороги всех, кто этому мешает.
Разумеется, создатели ИИ все это прекрасно понимают. В нынешнем развитии того, что мы называем ИИ, нет ни одной реальной тенденции, которая в будущем (при попустительстве производителей ИИ) привела бы к тому, что у ИИ появится цель - уничтожить человечество и получить власть над миром.