Что если медицинский ИИ решит, что через несколько лет вы начнете сильно пить? Оправдают ли в таком случае врачей за отказ в трансплантации? Сложно ли будет оспорить решение по вашему делу, если никто не знает, как оно было получено? Некоторые люди могут доверять ИИ куда больше других. «Люди слишком охотно принимают все, что нашел алгоритм, – говорит Флэч. – Компьютер говорит "нет". В этом вся проблема». А вдруг уже где-то есть интеллектуальная система, которая прямо сейчас дает оценку вашей личности – вам настоящему и вам будущему. Вспомните тот случай с Латанией Свини из Гарвардского университета. Однажды она с удивлением обнаружила, что ее поисковый запрос в
В последние годы у нас было несколько крупных промахов. В 2015 году
2016 год тоже отметился: произошел первый несчастный случай, связанный с беспилотным автомобилем. Тогда водитель перевел автомобиль
Существует бесчисленное количество историй, которые не попадают в новости, потому что системы ИИ работают так, как нужно. Однако мы не можем узнать, делают ли подобные системы именно то, что мы от них хотим. Нам нужно уделять пристальное внимание типу данных, которые мы передаем системе, ведь мы поручаем машинам принятие все более сложных решений. Переосмысления требует не только технология, но и ее использование в нашей повседневной жизни.
В эпоху больших данных многие люди обеспокоены конфиденциальностью информации. Но Виктор Майер-Шенбергер из Оксфордского института интернета считает, что на самом деле беспокойство должно вызывать неправильное использование вероятностного прогноза. «В данной сфере существуют серьезные этические дилеммы», – говорит он.
Чтобы ориентироваться в этом мире, нам потребуется изменить представления о том, что же означает искусственный интеллект. Знаковые интеллектуальные системы, которые мы уже создали, не играют в шахматы и не планируют гибель рода человеческого. «Они не похожи на
Когда люди мечтали о создании ИИ по своему образу и подобию, они ожидали увидеть разумные машины, которые будут с человеком на равных. ИИ, который есть сейчас, – он как пришелец. Это форма разума, с которой мы никогда ранее не сталкивались.
Интересно, о чем думает ИИ? Чтобы понять чье-то поведение, нужно знать, о чем этот человек думает. То же самое и с искусственным интеллектом. Новая техника по созданию снимков нейронных сетей в процессе обнаружения проблемы позволяет лучше понять принципы работы сетей – это приведет к повышению эффективности и надежности ИИ.
За последние несколько лет алгоритмы глубокого обучения, основанные на нейронных сетях, достигли прогресса во многих областях ИИ. Проблема в том, что мы не всегда знаем, как именно все происходит. «Система глубокого обучения – это настоящий "черный ящик", – говорит Нир Бен Зрихем из Техниона (Израильского технологического института) в городе Хайфа. – Если система работает – отлично. Если же нет, то вам крупно не повезло».