Д. М.: Я приведу пример, демонстрирующий, как возникает эта проблема. Известно, что отдельные районы патрулируются полицией более интенсивно, чем остальные. Это позволяет собрать о них больше данных.
Различия в выборке данных между строго охраняемыми и практически не патрулируемыми районами влияют на прогноз криминальной обстановки. Сбор данных может быть вполне объективным, но прогноз окажется далеким от реальности из-за чрезмерной выборки в одном районе и недостаточной выборки в другом.
Или рассмотрим такую процедуру, как выдача кредита. Есть люди, которые активно используют кредитные карты и совершают электронные платежи, и, соответственно, доступно множество данных об их транзакциях. Избыточная выборка в данном случае идет человеку на пользу, так как о нем можно сделать более точный прогноз. При этом о человеке, который предпочитает платить наличными, данных мало, алгоритм дает менее точный прогноз, что может негативно повлиять на окончательное решение о выдаче кредита.
Присутствует эта проблема и в системах распознавания лиц, что продемонстрировали в своих работах Тимнит Гебру, Джой Буоламвини и др.
М. Ф.: А что вы думаете о других опасностях, связанных с ИИ? Об угрозе, исходящей от суперинтеллекта?
Д. М.: Есть много поводов для беспокойства. Несколько лет назад группа, в которую входили, в частности, Илон Маск и Стюарт Рассел, встретилась в Пуэрто-Рико, чтобы обсудить прогресс в области ИИ, а также связанные с этой сферой проблемы. По итогам Стюарт Рассел опубликовал статью, где перечислялись области, которые недостаточно исследуются. Сейчас этот список считается исчерпывающим и включает вопросы безопасности.
Например, вопрос, как остановить вышедшую из-под контроля машину или даже алгоритм? Может понадобиться так называемая большая красная кнопка. Но исследователи из DeepMind в серии простых двумерных видеоигр gridworlds продемонстрировали, что многие алгоритмы теоретически могут научиться отключать свои выключатели.
При этом мы можем не знать, что именно повлияло на неверное решение или ошибочный прогноз, выданный ИИ. Существует интерпретатор сложных нелинейных моделей LIME, который пытается определить, на какие наборы данных опирается обученная модель при составлении прогноза. Другой многообещающий метод – применение обобщенных аддитивных моделей (generalized additive models, GAM). В них складываются модели отдельных признаков, по которым можно отследить, как влияет на прогноз добавление каждого признака.
Далее – проблема обнаружения. Для ИИ-систем нет мониторинга и разведки, и нельзя узнать, что где-то происходит использование ИИ-системы в террористических целях.
К счастью, постепенно появляются организации, небезразлично относящиеся к этим проблемам. Например, консорциумом Partnership on AI рассматриваются как вопросы предвзятости и безопасности, так и различные виды экзистенциальных угроз. Сэм Альтман, Джек Кларк и другие члены OpenAI хотят добиться выгоды от ИИ для всего человечества.
М. Ф.: Как вы относитесь к проблеме выравнивания, о которой предупреждают Илон Маск и Ник Бостром?
Д. М.: Я думаю, что специалисты, которые будут заниматься этим вопросом, нужны. Но сейчас волноваться об этом не имеет смысла, потому что если суперинтеллектуальные машины и появятся, то очень нескоро. Мне нравится, что над этой проблемой думает такой крупный философ, как Ник Бостром. А обычным людям беспокоиться не о чем.
М. Ф.: Мне близка ваша точка зрения. Об этих вопросах должны думать эксперты. Инвестировать в эти вещи государственные ресурсы сейчас неоправданно.
Д. М.: Разумеется, это не политический вопрос. Но с людьми, которые утверждают, что поводов для беспокойства нет, потому что подобного просто не может произойти, я категорически не согласен.
Просто есть более актуальные проблемы. Это вопросы безопасности, использования и злоупотреблений, объяснимости, предвзятости, а также вопросы влияния на экономику и рынок труда. Именно с этими проблемами нам предстоит иметь дело в ближайшие несколько десятилетий.
М. Ф.: Должно ли правительство регулировать вопросы применения ИИ?
Д. М.: Думаю, на данный момент у нас нет ни инструментов регулирования, ни нормативно-правовой базы.
Кто-то должен регулировать ИИ. Главное – не останавливать его использование, не закрывать ящик Пандоры и не откладывать применение новых технологий, пытаясь повернуть время вспять. Это было бы неправильно, потому что технологии приносят огромную социальную и экономическую выгоду. Нужно больше говорить, например, о проблеме производительности труда, которую могут решить ИИ-системы.
М. Ф.: Давайте перейдем к экономическим аспектам. MGI выпустил несколько отчетов о влиянии ИИ на рынок труда. Я занимался этой темой, и с моей точки зрения, мы находимся на пороге глобальных изменений в этой сфере. При этом многие экономисты считают, что поводов для беспокойства нет.