Чтобы сглаживать подобные смещения в конкретных наборах данных, людям необходимо следить за тем, чтобы фотографии (или другие типы данных) равномерно представляли, скажем, расовые или гендерные группы. Но это требует внимания и усилий от тех, кто отвечает за подготовку тренировочных данных. Более того, часто бывает очень сложно искоренить незаметные смещения и их последствия. Например, ученые одной исследовательской группы заметили, что их система ИИ – тренированная на крупном множестве данных, включающем фотографии людей в различной обстановке, – иногда ошибочно принимала мужчину за женщину, если мужчина стоял на кухне, то есть в среде, которая на фотографиях тренировочного множества чаще ассоциировалась с женщинами[143]. Как правило, такие незаметные смещения становятся очевидны постфактум, но их очень сложно предугадать.
Проблема смещений в системах ИИ в последнее время привлекает большое внимание – публикуются статьи, проводятся семинары, даже открываются исследовательские институты, посвященные этой теме. Должны ли наборы данных, используемые для обучения ИИ, точно отражать предрассудки нашего общества – как часто происходит сейчас – или же их следует специально корректировать в соответствии с целями общественного реформирования? И кто должен быть вправе определять цели для корректировки данных?
Где решение?
Помните, как в школе учитель писал красной ручкой: “Где решение?”, проверяя ваше домашнее задание по математике? Мне всегда было скучно расписывать решения математических задач, но для обучения это, пожалуй, было важнее всего, ведь объясняя, как я получила ответ, я показывала: я понимаю, что делаю, применяю необходимые методы и прихожу к ответу в результате верных рассуждений. Кроме того, когда я расписывала решения, мой учитель сразу видел, где я делала ошибки.
В более широком смысле мы часто готовы поверить, что люди понимают, что делают, если они могут объяснить,
Люди тоже не всегда могут объяснить ход своих рассуждений, и обычно невозможно заглянуть человеку в голову (или в “нутро”, которым он что-либо чует), чтобы понять, как именно он пришел к конкретному решению. Но люди, как правило, считают, что другие люди научились справляться с такими базовыми когнитивными задачами, как распознавание объектов и понимание речи. Отчасти вы доверяете другим людям, полагая, что они рассуждают так же, как вы сами. Чаще всего вы полагаете, что другие встречаемые вами люди имеют примерно такой же жизненный опыт, а потому используют те же самые базовые фоновые знания, убеждения и ценности, к которым вы прибегаете, воспринимая и описывая мир, а также принимая решения. Иными словами, когда речь идет о других людях, вы обращаетесь к тому, что психологи называют теорией психики, то есть к своему представлению о знаниях и целях другого человека в конкретных ситуациях. Никто из нас не обладает подобной “теорией психики” для таких систем ИИ, как нейронные сети, и потому нам сложнее им доверять.
Не стоит удивляться, что сейчас ведутся активные исследования в сфере, которую называют “объяснимым ИИ”, “прозрачным ИИ” или “интерпретируемым машинным обучением”. Исследователи пытаются добиться, чтобы системы ИИ – и особенно глубокие сети – начали объяснять свои решения понятным людям языком. Сегодня появилось несколько любопытных способов визуализации признаков, которые выявляет конкретная сверточная нейронная сеть, и – в некоторых случаях – определения, какие фрагменты входных сигналов в наибольшей степени влияют на выходное решение. Сфера объяснимого ИИ быстро прогрессирует, но система глубокого обучения, способная успешно объяснить свою работу человеческим языком, по-прежнему не создана.