Человечество как будто бы оседлало неуправляемый летательный аппарат и мчится на нем все быстрее в полную неизвестность, восторгаясь дивными пейзажами по пути и пренебрегая экзистенциальной опасностью с легкомыслием подростков, зацепившихся за крышу скоростного экспресса. На глобальном уровне люди способны осознавать угрозы со стороны климатических изменений и экологических катастроф, планировать международное сотрудничество по преодолению социального неравенства, голода и нищеты, но при этом продолжают считать технологии искусственного интеллекта чем-то вроде бездонного мешка с рождественскими подарками, а основным вопросом, с ними связанным, лишь то, кто будет эти подарки из мешка доставать и раздавать другим.
Полагаю, что есть две взаимосвязанные причины такой парадоксальной близорукости.
Одна – так называемая «ошибка доступности», известное когнитивное искажение, вызванное основанным на опыте подходом к оценке рисков. Проще говоря, это отрицание опасности по принципу «если такого никогда не было, то и не будет». Человек до последнего не верит в возможность катастрофических событий, с которыми раньше не сталкивался; человечество всерьез рассматривает только те угрозы, которые уже были реализованы раньше: война, эпидемия, экологическая катастрофа, голод. Экзистенциальная опасность, исходящая от информационных технологий, не воспринимается, как реальная, потому что ни с чем подобным люди в своей истории не сталкивались. По той же причине, например, несколько десятилетий назад никто и предвидеть не мог таких заболеваний, как компьютерная зависимость или номофобия – вполне реальное психическое расстройство, которое заключается в страхе остаться без мобильного телефона.
Вторая причина имеет схожие психологические основания. Видишь ли, Нина, есть такие предметы, которые в обществе считаются недостойными обсуждения всерьез, хоть они и являются объектом исследования десятков и сотен ученых, и даже – как в случае с цифровыми технологиями – если люди используют результаты таких исследований в повседневной жизни. Обыватель со значением готов обсуждать коррупцию и политические интриги, но, скажем, над поиском инопланетных цивилизаций или реальностью рисков, связанных с искусственным интеллектом, склонен снисходительно посмеиваться. Мне кажется, это связано с популярностью таких тем в индустрии развлечений: за последние несколько десятилетий истории про инопланетное вторжение или восстание машин так часто забавляли публику, что воспринимать их с серьезностью практически невозможно.
Тем не менее, я был убежден, что должны существовать какие-то средства или методы объективного контроля потенциальной опасности, связанной с развитием цифровых алгоритмов, и решил поговорить об этом с Егором.
– Контроль над искусственным интеллектом – иллюзия, – заявил внук. – Просто людям хочется верить, что они как-то могут влиять на процесс, если заинтересованы в его благополучном исходе. Всё, что тут можно придумать – принцип обязательного участия человека, то есть запрет на автономное принятие искусственным интеллектом жизненно важных решений без участия людей. Как ты понимаешь, дед, это фейл.
Я согласился.
– Да, во-первых, трудно определить, в чем люди превосходят машины. Где можно разрешить алгоритмам самостоятельно принимать решение, а где это лучше сделает человек? Предположу, что бесстрастное сравнение возможностей покажет, что человек не лучше нигде. Во-вторых, даже если допустить участие человека, оно будет чисто формальным и не поможет снизить риски, так как машина предлагает решение на основе невычислимого объема данных и непроверяемых расчетов, выполненных неизвестными методами. Тут надо или полностью отказываться от использования машин, или быть готовым отменить их решение просто на основе собственной интуиции; но тогда зачем вообще нужны эти машины?
– А в-третьих, – сказал Егор, – алгоритм может запросто тебя обмануть.
– Разве способность ко лжи не является свойством исключительно человеческого сознания?
Внук пожал плечами.