Многообразие проектов искусственной личности.
По сути, история философии искусственного интеллекта – это история обсуждения возможностей компьютерной реализации персонологических параметров. Достаточно вспомнить полемический стандарт А. Тьюринга по поводу построения мыслящих машин (1950) как совокупность аргументов и контраргументов в решении «основного вопроса» философии искусственного интеллекта: «Может ли машина мыслить?»[233] В «стандарт» вошли аргументы и контраргументы, не имеющие прямого отношения к «интеллекту»: теологический, антисциентистский, креационистский, «от первого лица», «от другого сознания» и даже экстрасенсорный.С начала 1990-х годов в широкой печати выделяются следующие крупные проекты ИЛ: 1) OSCAR Дж. Поллока, сформулированный в рамках «универсальной теории рациональности» с ее приложениями для построения искусственных рациональных агентов («артилектов»)[234]
; 2) проект «человекоподобных агентов» А. Сломана, призванный реализовать широкий спектр персонологических параметров, например, «любовь», «свободу»[235]; 3) проект гуманоидных роботов КОГ, в котором Д. Деннетт усматривает апробацию собственной теории «множественных набросков», где персональное возникает из сложного сочетания безграничной серии нарративов, а личность и социум – это субстанциональные системы бесчисленных роботов, в которых «ментальное» представляется компонентой функциональной самоорганизации[236].В этих проектах предлагаются концептуальные, логико-математические, программные решения. Рассмотрим одно из них.
Типовая когнитивно-компьютерная архитектура искусственной личности.
Как правило, рассматривается трехуровневая архитектура когнитивно-компьютерной системы, претендующей на проект ИЛ: 1) уровень коннекционистских образов (паттернов), осуществляющий перцептивную обработку данных; 2) уровень первичных репрезентаций, переводящий восприятия в дискретные представления и суждения; 3) уровень вторичных репрезентаций, на котором осуществляется представление представлений (моделирование других моделей представления знаний и моделирование собственной модели). Особо показателен подход А. Сломана. Он задает конкретный вопрос: «Какие машины могут любить?» – и предлагает архитектуру «любящих» компьютеров, состоящую из: 1) реактивного; 2) обдумывающего; 3) рефлективного (метауправляющего) уровней[237].Помимо внутренней архитектуры системы искусственной личности, немаловажным является
Подход Д. Лената и Р. Брукса можно обозначить, соответственно, как
Чтобы четче обозначить различия между этими подходами, рассмотрим иерархию тестов Тьюринга (ТТ), предложенную С. Харнадом (тест Харнада)[238]
.ТX0. Это – уровень «игрушечных» ТТ – не полноправных тестов, но лишь некоторых фрагментов, ограниченных как по длине, так и по содержанию. Такие тесты не отвечают исходному замыслу А. Тьюринга (частично они реализованы в играх на премию Лойбнера). Однако все попытки моделирования интеллекта, известные на сегодняшний день, выше данного уровня не поднялись.
ТX1. Это – уровень оригинального теста Тьюринга с учетом ограничений на длину теста, объем компьютерной памяти и скорость вычислений.
ТХ2 – общепринятое понимание теста Тьюринга, который часто называется «друг по переписке». Длина теста равна протяженности человеческой жизни.
ТХ3 – «роботизированная» версия TХ2. Имеется возможность манипуляции предметами внешнего мира. Процедура идентификации систем, которые проходят данный тест, требует принципа «Вскрытие покажет» (принцип Н. Блока), т. е. анатомическое исследование системы. Такой прием часто используется в фантастических фильмах для отличения роботов от людей. При поражении тела робота из него вытекает жидкость зеленого, белого или иного некрасного цвета.
А. А. Писарев , А. В. Меликсетов , Александр Андреевич Писарев , Арлен Ваагович Меликсетов , З. Г. Лапина , Зинаида Григорьевна Лапина , Л. Васильев , Леонид Сергеевич Васильев , Чарлз Патрик Фицджералд
Культурология / История / Научная литература / Педагогика / Прочая научная литература / Образование и наука