Существуют различные уровни машинного интеллекта, и нет никаких сомнений в том, что в области копирования некоторых аспектов функционирования человеческого мозга мы добились невероятного прогресса. Но искусственный интеллект как самостоятельное мышление машины остается далекой целью. Одной из причин этого является тот факт, что мы недостаточно хорошо представляем себе, что такое интеллект вообще и как именно человеческий мозг (или в меньшей степени мозг высокофункциональных животных) вмещает его в себя. Если интеллект зависит исключительно от архитектуры мозга, включая мириады синаптических соединений между нейронами, тогда существуют основания предполагать, что создание ИИ (искусственного интеллекта) всего лишь дело времени и что когда-нибудь машины научатся имитировать человеческий мозг и в конечном итоге превзойдут его. Это фундаментальное предположение, по сути, дало начало исследованиям сильного ИИ на конференции 1956 года в Дартмутском колледже: «Каждый аспект обучения или иная характеристика интеллекта может быть описана настолько точно, что возможно создать машину для ее имитации».[185]
С другой стороны, если интеллект и сознание действительно зависят от чего-то другого, например от какого-то неизвестного организационного принципа или принципов, то простого инженерного анализа будет недостаточно для создания мыслящих машин.Таким образом, осуществимость этой задачи зависит от функционирования мозга и природы сознания. Проблема и главное затруднение состоят в том, что между экспертами в этой области нет согласия. Компьютерная теория разума, один из сильнейших аргументов в пользу ИИ, утверждает, что мозг можно декодировать и что его работа сводится к коммуникации между нейронами и образованию операционных кластеров. Не существует никакой великой загадки сознания, есть лишь непонимание принципов его работы. Оптимисты, такие как изобретатель Рэй Курцвейл, создатель роботов Ханс Моравец и кибернетик Кевин Уорвик, уверены, что день, когда компьютеры смогут имитировать человеческий мозг, уже не за горами. В 1965 году один из основателей компании Intel Гордон Мур вывел эмпирическую закономерность, известную как закон Мура: количество транзисторов в интегральных схемах удваивается примерно каждые два года. Курцвейл применил этот закон к современным микропроцессорным технологиям и сделал вывод, что к 2029 году персональные компьютеры сравняются по мощности обработки информации с нашим мозгом. Продолжая свои рассуждения, он приходит к тревожным выводам: к 2045 году искусственный интеллект научится улучшать сам себя с немыслимой скоростью. Этот момент в истории писатель-фантаст Вернор Виндж называет сингулярностью.
Когда я был постдокторантом в Фермилабе, Марвин Мински, один из отцов-основателей сильного ИИ и человек, чья подпись стояла под дартмутским предложением, приехал к нам провести коллоквиум. Когда он представил свои аргументы в пользу того, что машины скоро научатся мыслить (стоял 1986 год), я спросил его, будут ли они болеть душевными болезнями, например психозом или биполярным расстройством. К моему изумлению, Мински ответил мне категорическим «Да!». Полушутя я поинтересовался, будут ли существовать психотерапевты для компьютеров, и снова получил положительный ответ. Вероятно, это будут специальные отладчики, занимающиеся одновременно программированием и машинной психологией.
В ответ Мински можно было бы возразить, что если бы мы смогли провести настолько точный инженерный анализ человеческого мозга, что сумели бы его воспроизвести, то точно выяснили бы химические, генетические и структурные причины возникновения душевных заболеваний, нашли бы способы их устранения и начали бы создавать совершенно здоровые искусственные мозги. На самом деле подобные медицинские задачи являются одной из основных целей компьютерного моделирования мозга. Ведь если оно пройдет успешно, у нас на руках окажется целая лаборатория для тестирования лекарств и процедур без привлечения людей – разумеется, если люди к тому моменту еще будут существовать.