В наше время каждый год проводится конкурс на Премию Лёбнера, в котором программисты соревнуются в создании программ, наиболее близких к прохождению теста Тьюринга. Конечно, тест Тьюринга уже многие годы вызывает активные дискуссии, в которых поднимаются сложные вопросы. Например, если компьютер на самом деле окажется гораздо «умнее» людей, ему придется прикинуться менее умным, поскольку тест предполагает имитацию человеческого поведения. Поэтому, чтобы перехитрить жюри, разработчики часто используют обманные и неожиданные приемы: опечатки, изменение темы беседы, шутки, встречные вопросы судьям и т. д. В 2014 г. робот-собеседник, разработанный программистами из России и Украины, прошел версию теста Тьюринга, представившись тринадцатилетним украинским мальчиком Женей Густманом.
Еще одна проблема, связанная с тестом Тьюринга, заключается в том, что его результат во многом зависит от уровня подготовки судей. Однако что бы ни говорилось о способности теста выявлять «интеллект», он определенно вдохновляет на творчество программистов и разработчиков.
СМ. ТАКЖЕ «Дарвин среди машин» (1863), «Гигантские мозги, или Машины, которые думают» (1949), Обработка естественного языка (1954), Психотерапевт
Тест Тьюринга проверяет способность машины демонстрировать разумное поведение, неотличимое от поведения человека.
«Человеческое использование человеческих существ». 1950
Норберт Винер (1894–1964), авторитетный американский математик и философ, был одним из отцов
В своей книге «Человеческое использование человеческих существ» (1950) Винер размышляет о том, каким образом люди будут сотрудничать с машинами. Его идеи, безусловно, актуальны и в нашу эпоху почти непрерывной электронной коммуникации: «Главный тезис этой книги состоит в том, что общество можно понять только путем изучения его информационных посланий и средств связи и что в будущем развитие коммуникации и средств связи между человеком и машинами, машинами и человеком, а также между машиной и машиной будет играть все более важную роль».
Винер прозорливо отмечал, что в будущем понадобится создать обучаемые машины, но вместе с тем предупреждал, как опасно делегировать процессы принятия решений машинам, мыслящим буквально: «Любая машина, построенная для принятия решений, если она не способна к обучению, будет мыслить исключительно буквально. Горе нам, если мы доверим ей руководить нами, не изучив прежде ее принципов действия и не убедившись, что она будет работать по приемлемым для нас правилам! [Машина, которая] способна учиться и принимать решения на основе обучения, вовсе не будет обязана принимать такие решения, которые приняли бы мы сами или которые будут для нас приемлемы. [Делегировать ответственность машине], способной или неспособной к обучению, – все равно что бросить ответственность на ветер и увидеть, как она возвращается вместе с бурей».
Эти предостережения актуальны и сегодня, когда многие футурологи говорят о необходимости сделать общий ИИ безопасным.
СМ. ТАКЖЕ «Дарвин среди машин» (1863), «Заимствованный разум» Теслы (1898), Дартмутский семинар по искусственному интеллекту (1956), Интеллектуальный взрыв (1965), Глубокое обучение (1965)
Норберт Винер писал, что машина, которая «способна учиться и принимать решения на основе обучения, вовсе не будет обязана принимать такие решения, которые приняли бы мы сами или которые будут для нас приемлемы».
Обучение с подкреплением. 1951
Обучение с подкреплением напоминает поведение подопытных кошек, желающих получить вознаграждение. В начале ХХ в. психолог Эдвард Торндайк (1874–1949) помещал кошек в клетки, из которых можно было выбраться, только наступив на рычаг. После некоторых блужданий по клетке кошка в конце концов случайно наступала на рычаг, дверца открывалась, и животное получало что-то в награду – например, еду. По мере того как кошки учились связывать нужное действие с вознаграждением, они сбегали из клетки все быстрее и в итоге нажимали на рычаг сразу после попадания в клетку.