Читаем Гуманитарное знание и вызовы времени полностью

TХ4 – это компьютерные системы, неотличимые как в плане ТХ3-неотличимости, так и в плане микрофизической организации системы. Здесь имеет место «тотальная неотличимость» компьютерной системы от человека, включая мельчайшие внутренние нюансы телесного строения. Теперь из поврежденного робота будет вытекать как бы настоящая кровь. Перспективы теста связываются с нанотехнологиями.

Как мы видим, экспертный подход должен пройти уровень ТХ2, робототехнический – уровень ТХ3. Неантропоморфные версии – это уровни TX0-TX3, антропоморфная – ТX4.

В англо-американской философии ИИ в основном преобладает антропоморфный подход, согласно которому ИЛ – это обладающий квазисознанием автономный робот. Экспертная методология не признается такими авторитетными зарубежными философами ИИ, как Дж. Маккарти[239], А. Сломан[240]. В отечественной же науке, напротив, сложился экспертный подход: ИЛ рассматривается в социально-эпистемологическом контексте междисциплинарных взаимодействий специалистов, в ходе которых формируются «данные», «знания», «смыслы» социокультурного и персонологического содержания. Рассмотрим подробно эти подходы.

Искусственная личность – робототехническая система. Искусственная личность – это робот, наделенный квазисознанием и благодаря этому реализующий некоторые персонологические способности и качества человеческой личности. Показательна дискуссия по поводу книги Селмера Брингсйорда «Чем могут и не могут быть роботы» (1992, 1994)[241]. В работе позитивные утверждения относительно проекта ИЛ сопровождаются обстоятельной критикой. Основной девиз работы звучит так: «В будущем робот будет делать все то, что делаем мы, но не будет одним из нас», т. е. он не будет сознательным.

С. Брингсйорд доказывает, что: а) когнитивно-компьютерная технология будет производить машины со способностями проходить все более и более сильные версии ТТ, однако: б) проект ИЛ по созданию машины-личности будет неминуемо проваливаться. В защиту (а) предлагается индуктивный вывод при построении версий тестов: тьюринговая игра в имитацию -> наблюдение внешнего вида игроков -> изучение их сенсомоторного поведения -> сканирование мозга и пр. (т. е., по сути, прохождение рассмотренной выше иерархии тестов Харнада). В основе доказательства (б) – несостоятельности проекта ИЛ – лежит modus tollens из суждений: (1) «Проект ИЛ» -> «Личность – это автомат»; -> (2) – «Личность – это автомат»; (3) – «Проект ИЛ». Посылка (2) интуитивно апеллирует к наличию у человека и отсутствию у автомата ряда машинно не воспроизводимых персонологических параметров F, к которым относятся свободная воля, способность к интроспекции, внутренний проективный опыт «каково быть» («what it's like to be») и пр. К F относится и возможность компьютерного воспроизводства творческих способностей, которую автор подробно анализирует в ряде предыдущих работ на основе рассмотрения программ генерации художественных и философских произведений. Убедительно доказывается: «компьютер творить не может!»[242] Общее заключение следующее: (4) «Личность обладает F»; (5) «Автомат не обладает F»; -> (6) «Личность не может быть автоматом». С. Брингсйорд достаточно подробно обосновывает невычислимость F, апеллируя к аргументу Гёделя, «Китайской комнате» Дж. Сёрля, аргументу произвольной множественной реализации Н. Блока и др. Итог таков: «Роботы будут многое делать, однако они не будут личностями».

В полемике по поводу работы С. Брингсйорда, продолженной на страницах сайта(рубрика «Сознание робота»), наблюдается четыре направления критики и поддержки.

I. Проект ИЛ абсурден, так как: 1) метафизические понятия «личность», «свобода воли», «интроспекция» не могут быть предметом эмпирического анализа; 2) нечеткое определение понятия личности, образная иррациональность проекта ИЛ – все это не заслуживает научного внимания; 3) персонологические параметры логически невыразимы – попытки их логической экспликации непременно сопровождаются ошибками.

II. Проект ИЛ неточен, так как: 1) апелляция к интуитивным аргументам разрушает логическую строгость дедуктивных аргументов; 2) нецелесообразно применять дедуктивные умозаключения в качестве метода аргументации (дедукция – не метод, а схема суждений); 3) необходимо четко формулировать конкретную разновидность функционализма как методологического базиса проекта ИЛ – нет функционализма «вообще», а есть, к примеру, низкоуровневый функционализм, биологический функционализм и пр.

III. Проект ИЛ реализуем, так как: 1) человеческая личность – это тоже компьютер, но неклассического типа, т. е. представимый не машиной Тьюринга, а иными, квазиалгоритмическими правилами обработки вычислительных элементов (мы предложили использовать машину Корсакова – Тьюринга); 2) компьютер вовсе не автомат, и кто придерживается противоположного мнения – тому не место в проблематике компьютерного «сознания»; 3) компьютерная система должна тестироваться природой, а не человеком.

Перейти на страницу:

Похожие книги

Время, вперед!
Время, вперед!

Слова Маяковского «Время, вперед!» лучше любых политических лозунгов характеризуют атмосферу, в которой возникала советская культурная политика. Настоящее издание стремится заявить особую предметную и методологическую перспективу изучения советской культурной истории. Советское общество рассматривается как пространство радикального проектирования и экспериментирования в области культурной политики, которая была отнюдь не однородна, часто разнонаправленна, а иногда – хаотична и противоречива. Это уникальный исторический пример государственной управленческой интервенции в область культуры.Авторы попытались оценить социальную жизнеспособность институтов, сформировавшихся в нашем обществе как благодаря, так и вопреки советской культурной политике, равно как и последствия слома и упадка некоторых из них.Книга адресована широкому кругу читателей – культурологам, социологам, политологам, историкам и всем интересующимся советской историей и советской культурой.

Валентин Петрович Катаев , Коллектив авторов

Культурология / Советская классическая проза