Читаем Конец индивидуума. Путешествие философа в страну искусственного интеллекта полностью

Остается узнать, какие инструменты нам нужны для введения в действие «первой директивы». Я бы довольствовался здесь простыми гипотезами: главное – утвердить на прочных философских основаниях ясное видение цели, которой нужно достичь. Специалисты по ИИ, вероятно, могут придумать другие решения.

Впрочем, есть вероятность, что технология сама принесет решение созданных ею проблем. Так, мы наблюдаем разработку методов машинного обучения, пытающихся ввести фактор серендипности. Значит, можно надеяться, что ИИ все-таки не обречен на утилитаризм. Это одно из направлений сегодняшних фундаментальных исследований. Кеннет Стенли, ученый, разоблачающий миф о целях и задачах, разработал процедуру «открытия нового», когда роботу дается единственная инструкция – попытаться произвести необычное действие, избегая любого целеполагания. Как ни удивительно, подобная инструкция может привести к появлению более эффективного поведения, чем в случае классического алгоритма, например при поиске выхода из лабиринта. Мало того, двуногий робот, отправленный искать новое, может в итоге сам научиться ходить! Менее радикальные методы «эволюционного обучения» нацелены на то, чтобы сохранить в новых поколениях алгоритмов 99 % самых эффективных черт предшествующих поколений, введя при этом 1 % произвольных характеристик[197]. Таким образом, как в биологической или социальной эволюции, улучшение может родиться из процесса, специально задуманного как неоптимальный.

Настоящим прорывом стало бы предоставление пользователю возможности самостоятельно воздействовать на параметры, управляющие ИИ. Когда я делюсь этой гипотезой с Александром Лебреном, бывшим руководителем исследований ИИ в Facebook Europe, он вспоминает «функцию оптимизации» – поставленную перед алгоритмом зашифрованную задачу по лучшему выполнению его миссии исходя из всех параметров, которые были ему заданы. Эта функция считается конфиденциальной: никто не знает, как регулируется алгоритм Google, чтобы максимизировать количество кликов, минимизируя при этом чувство дискомфорта. В свете «первой директивы» каждый сможет настраивать функцию оптимизации, чтобы персонализировать свой ИИ. Вот что позволило бы избавиться от утилитаристского императива, поскольку каждый пользователь устанавливал бы свои собственные нормы успеха – в логике Милля. Эта так называемая интерактивная форма машинного обучения, при которой человек возвращает себе контроль над установлением параметров машины, сегодня стала предметом многочисленных теоретических разработок[198]. Можно представить, что упрощенные интерфейсы помогут неофитам легко модифицировать функции оптимизации в алгоритмах[199]. Конечно, производительность таких персонализированных ИИ будет поначалу слабовата и они не всегда смогут отвечать всем требованиям пользователя, но со временем эта идея может привлечь сторонников, показав, что прогресс и оптимизация – разные вещи![200]

Поскольку речь идет о массовом применении, такие методы позволяют создавать системы рекомендаций, допускающие отклонения. В Нью-Йорке я встретился с Алексом Элиасом, основателем стартапа Qloo. Он ставит перед собой задачу скрестить индивидуальные предпочтения в разных областях: если вам нравится такая-то музыка или такой-то фильм, вы должны попробовать такой-то ресторан или пойти на свидание с таким-то человеком… Qloo мог бы стать Netflix для жизни, погружающим своих пользователей в тотальные рекомендации, от которых ничто не ускользает. В этом смысле стремление к «культурной персонализации» представляет собой именно то, что пугает меня в ИИ. Но Алекс – интеллектуал с Восточного побережья, любитель джаза, разбирающийся в достоинствах импровизации. Он знает, что поход в магазин пластинок открывает перед ним неожиданные перспективы, тогда как Spotify дает лишь ограниченный опыт. Проанализировав поиск в Qloo, он констатирует, что большинство американцев указывает в качестве любимой книги Библию, а в качестве любимого фильма – последний блокбастер… Оставленные на милость оптимизирующего алгоритма, они, вероятно, пойдут самым традиционным путем. Вот почему Алекс включил в программу Qloo то, что он называет «фактором диверсификации». С одной стороны, элемент случайности вводится в систему рекомендаций, чтобы устраивать сюрпризы и вызывать вопросы[201]. С другой – пользователь контролирует некоторое число критериев: это «первая директива» в действии! Чтобы пробудить задремавшее сознание, нужна случайность, а чтобы переориентировать алгоритм – наличие четко выраженного выбора.

Перейти на страницу:

Похожие книги