Мы следим за передовыми технологиями и прогрессом в сфере ИИ. Я поддерживаю контакты и сотрудничество с Эриком Хорвицем, Джеффом Дином, Демисом Хассабисом и Фей-Фей Ли, кроме того, учусь у легендарной Барбары Грош. В то время как я пытаюсь быть ближе к технологиям и науке, мои коллеги исследуют влияние этих технологий на экономику.
М. Ф.: Последние несколько лет глубокое обучение развивалось очень быстро. Как вы считаете, это путь к мечте или же не стоит многого ожидать от этого метода?
Д. М.: Мы только открываем для себя возможности глубокого обучения, нейронных сетей, обучения с подкреплением и переноса обучения. Запас того, что могут дать эти методы, огромен. Они уже помогают решать такие задачи, как классификация изображений и объектов, обработка естественного языка и генеративный ИИ, который прогнозирует и синтезирует последовательности для речи, изображений и прочего. Большой прогресс ожидается в так называемом узком ИИ, то есть в решении конкретных задач.
Для сравнения можно посмотреть на темпы разработки общего и сильного ИИ. Мы двигаемся быстрее, чем раньше, но необходим ряд прорывов. Впечатляет работа Джеффа Дина и других сотрудников Google Brain по автоматическому обучению машин. Но возможности машинного обучения ограничены.
М. Ф.: В чем их ограничения?
Д. М.: Маркированные данные не всегда доступны. Иногда их приходится создавать вручную, что занимает много времени и не гарантирует отсутствия ошибок. Для этого компании, занимающиеся беспилотными автомобилями, нанимают сотни людей. Появляются методы, позволяющие без этого обойтись. Например, предложенный Эриком Хорвицем метод in-stream supervision, присваивающий метки неявным образом непосредственно в процессе деятельности. Или генеративные состязательные сети (generative adversarial networks, GAN), которые представляют собой обучение с частичным привлечением учителя. Они генерируют полезные данные таким образом, чтобы уменьшить потребность в наборах данных, промаркированных людьми.
Вторая проблема состоит в количестве данных. Неудивительно, что больший прогресс достигнут в области машинного зрения, потому что в интернет ежедневно выкладывается множество изображений и видео. При этом доступность данных в некоторой степени уменьшают нормативные акты, конфиденциальность, безопасность и другие факторы. Этим частично объясняется разный темп прогресса в разных странах. Есть стандарты использования данных, которые упрощают доступ к сведениям из сферы здравоохранения. Именно поэтому Китай результативнее нас применяет ИИ в геномике.
Ограничены универсальные инструменты и не решены общие проблемы ИИ. Например, предлагаются новые формы теста Тьюринга.
М. Ф.: А как работают новые тесты?
Д. М.: Соучредитель компании Apple Стив Возняк предложил так называемый кофейный тест. Претенденту на звание сильного ИИ нужно войти в случайный дом, найти кофе-машину, приготовить кофе и разлить его по чашкам. Тест выглядит тривиально, но для его прохождения нужно принимать сложные универсальные решения множества проблем общего характера. Мне кажется, что это оптимальная форма теста Тьюринга.
Но я хотел бы вернуться к вопросу об ограничениях, так как осталась за кадром проблема, связанная с предвзятостью. ИИ-сообщество имеет полярные мнения по этому вопросу. Одна из точек зрения заключается в том, что машины будут обладать меньшей степенью предвзятости, чем люди. Когда судья принимает решение об освобождении под залог, применение алгоритма может нивелировать человеческие предрассудки и даже избежать влияния суточных ритмов. Вспомните работу Марианны Бертран и Сендхила Малленатана, в которой рассматривались ответы на идентичные рабочие резюме, присланные представителями различных расовых групп.
М. Ф.: Многие надеются, что ИИ не унаследует человеческую предвзятость.
Д. М.: Предвзятость может появиться в данных как на стадии их сбора, так и за счет избыточной или недостаточной выборки. Эта проблема наглядно проявляется в кредитовании и уголовных делах, и велика вероятность, что в любой набор данных уже встроены масштабные предубеждения, причем непреднамеренно. Об этом много писали в своих работах Джулия Ангвин и ее коллеги из организации ProPublica и стипендиат фонда Макартуров Сендхил Малленатан. В итоге был сделан интересный вывод, что алгоритмы не способны удовлетворять различным определениям справедливости одновременно. Возникла важная проблема: определить, что такое справедливость.
Машины могут как помочь в преодолении предвзятости, так и усугубить ситуацию. К счастью, в этой области мы потихоньку продвигаемся вперед. Меня радует работа Сильвии Кьяппы из компании DeepMind, построенная на условной справедливости и причинно-следственных моделях.
М. Ф.: Но разве данные могут быть свободными от человеческих предубеждений, если они собираются в процессе обычной интернет-деятельности пользователей?