Учёные вплотную подошли к предсказанному информационному апокалипсису, теоретическому детищу выдающегося математика Ирвинга Джона Гуда — «интеллектуальному взрыву».
Судьба его друга и коллеги Алана Тьюринга широко известна, чего не скажешь о послевоенной жизни Гуда. В 60-х он эмигрировал в США, поселился в далёком Блэксбурге и до самой смерти в 2009 году работал в Политехническом университете Вирджинии на окладе, превышавшем оклад ректора.
Гуд был блестящим шахматистом, и это ему Тьюринг сказал о последнем интеллектуальном рубеже человечества — игре в го.
Поэтому нет ничего удивительного в том, что именно Гуд занялся проблемой «искусственных нейронных сетей» — искусственным интеллектом, который программирует себя сам.
Выше я уже приводил самую известную цитату из работ Гуда (статья «Размышления о первой ультраразумной машине», 1965 г.), суть которой заключается в том, что, как только мы изобретём ультраразумную машину, она тут же произведёт другие ультраразумные машины, и всё — «человеческий разум останется далеко позади».
Изначально Гуду казалось, что это будет величайшим благом для человечества. Конечно, он натерпелся ужасов, воюя с фашистской Германией в Блетчли-парке, потом атомная бомба, потом водородная… Казалось, человечеству сильно не хватает какого-нибудь суперразума, который сможет установить на планете мир и порядок.
Плюс сколько открывается невероятных возможностей, если в наших руках действительно окажется суперинтеллект, способный создавать мириады других суперинтеллектов! Мы сможем решить любые проблемы: победим болезни и смерть, обеспечим всеобщее благосостояние, полетим на Марс…
Впрочем, скоро стало понятно, что будущее человечества после возникновения суперразума вовсе не так уж радужно. Решать паши проблемы будет не человек, а машина, которая
Не случайно в той же знаменитой статье Гуда мы находим и такой пассаж, являющийся скорее предостережением, нежели невинным британским юмором: «Таким образом, первая ультраразумная машина — это последнее изобретение, которое потребуется от человека, если, конечно, эта машина будет достаточно сговорчивой, чтобы сообщить нам, как можно её контролировать».
Тут, понятно, все начинают вспоминать Азимова: мол, объясним машине, что она должна нас слушаться и против нас ничего не затевать, — и всё будет хорошо. Не будет. Если искусственный интеллект развивается путем самообучения, то об Азимове, при всём уважении, придётся забыть.