Читаем Искусственный интеллект. Что стоит знать о наступающей эпохе разумных машин полностью

Что если медицинский ИИ решит, что через несколько лет вы начнете сильно пить? Оправдают ли в таком случае врачей за отказ в трансплантации? Сложно ли будет оспорить решение по вашему делу, если никто не знает, как оно было получено? Некоторые люди могут доверять ИИ куда больше других. «Люди слишком охотно принимают все, что нашел алгоритм, – говорит Флэч. – Компьютер говорит "нет". В этом вся проблема». А вдруг уже где-то есть интеллектуальная система, которая прямо сейчас дает оценку вашей личности – вам настоящему и вам будущему. Вспомните тот случай с Латанией Свини из Гарвардского университета. Однажды она с удивлением обнаружила, что ее поисковый запрос в Google сопровождался рекламными модулями с текстом «Вас когда-нибудь арестовывали?». Для белых коллег такая реклама не показывалась. Так было проведено исследование, показавшее, что система машинного обучения, использовавшаяся в поиске Google, случайным образом оказалась расистом. Глубоко в веренице сопоставлений имена, типичные для чернокожих людей, были связаны с рекламными объявлениями об арестах.

Крупные промахи

В последние годы у нас было несколько крупных промахов. В 2015 году Google пришлось извиняться за то, что один из его продуктов автоматически отметил фотографии двух чернокожих людей как «горилл». Год спустя компании Microsoft пришлось отключить чат-бота по имени Tay, поскольку он выучил оскорбительные ругательства. В обоих случаях это были не проблемы с алгоритмом, а ошибки в подборе обучающих данных.

2016 год тоже отметился: произошел первый несчастный случай, связанный с беспилотным автомобилем. Тогда водитель перевел автомобиль Tesla в режим автопилота, и система не заметила трейлер на дороге. Дорожные условия были необычными: белое препятствие на фоне светлого неба, – поэтому система машинного зрения просто допустила ошибку. С выходом все большего количества компаний на мировой рынок вероятность возникновения подобных инцидентов лишь возрастает.

Существует бесчисленное количество историй, которые не попадают в новости, потому что системы ИИ работают так, как нужно. Однако мы не можем узнать, делают ли подобные системы именно то, что мы от них хотим. Нам нужно уделять пристальное внимание типу данных, которые мы передаем системе, ведь мы поручаем машинам принятие все более сложных решений. Переосмысления требует не только технология, но и ее использование в нашей повседневной жизни.

В эпоху больших данных многие люди обеспокоены конфиденциальностью информации. Но Виктор Майер-Шенбергер из Оксфордского института интернета считает, что на самом деле беспокойство должно вызывать неправильное использование вероятностного прогноза. «В данной сфере существуют серьезные этические дилеммы», – говорит он.

Чтобы ориентироваться в этом мире, нам потребуется изменить представления о том, что же означает искусственный интеллект. Знаковые интеллектуальные системы, которые мы уже создали, не играют в шахматы и не планируют гибель рода человеческого. «Они не похожи на HAL 9000», – рассказывает Нелло Кристианини, профессор искусственного интеллекта в Бристольском университете. Они прошли долгий путь от «сопровождения» нас в Интернете и стимулирования продаж товаров в сети до обещаний предсказать наше поведение еще до того, как мы сами о нем узнаем. От таких систем никуда не скрыться. Нам требуется смириться с тем, что мы не сможем понять, почему принимаются те или иные решения, и научиться принимать выбор системы таким, какой он есть – рекомендация, математическая вероятность. Интеллектуальные машины не управляются оракулом.

Когда люди мечтали о создании ИИ по своему образу и подобию, они ожидали увидеть разумные машины, которые будут с человеком на равных. ИИ, который есть сейчас, – он как пришелец. Это форма разума, с которой мы никогда ранее не сталкивались.

Сможем ли мы покопаться в «мозгах» ИИ?

Интересно, о чем думает ИИ? Чтобы понять чье-то поведение, нужно знать, о чем этот человек думает. То же самое и с искусственным интеллектом. Новая техника по созданию снимков нейронных сетей в процессе обнаружения проблемы позволяет лучше понять принципы работы сетей – это приведет к повышению эффективности и надежности ИИ.

За последние несколько лет алгоритмы глубокого обучения, основанные на нейронных сетях, достигли прогресса во многих областях ИИ. Проблема в том, что мы не всегда знаем, как именно все происходит. «Система глубокого обучения – это настоящий "черный ящик", – говорит Нир Бен Зрихем из Техниона (Израильского технологического института) в городе Хайфа. – Если система работает – отлично. Если же нет, то вам крупно не повезло».

Перейти на страницу:
Нет соединения с сервером, попробуйте зайти чуть позже