Читаем 2062: время машин полностью

Слова Питера Норвига о том, что люди плохо умеют принимать решения, сущая правда. Специалисты в области поведенческой экономики выяснили, что мы полны стереотипов и часто ведем себя иррационально. Однако если мы не будем осторожны, то создадим машины, которые будут такими же предвзятыми. На самом деле алгоритмы сегодня часто уступают людям в этом аспекте. В отличие от нас многие алгоритмы не могут объяснить, как они принимают решения. Это черные ящики, которые просто дают ответы. Человека всегда можно спросить, почему он поступил так или иначе. С большинством современных ИИ придется просто принять ответ как должное.

Имморальный компас

К 2062 году предубеждения в алгоритмах распространятся еще больше, если мы не предпримем никаких действий, чтобы это предотвратить. Существует множество доказательств того, что эта проблема уже стоит перед нами. Посмотрим на один такой пример из США: алгоритм машинного обучения под названием COMPAS, разработанный компанией Northpointe. Он предназначен для того, чтобы на основании исторических данных высчитать вероятность повторного совершения преступления осужденным преступником.

Алгоритм могут использовать службы, чтобы неприспособленные для этого люди не оказались в тюрьме. Думаю, немногие станут оспаривать такое применение технологии. Она способна сделать наше общество лучше и безопаснее. Однако COMPAS используют совсем иначе. Судьи обращаются к нему, чтобы определить срок заключения, размер залога и испытательного срока. Не стоит даже говорить, что здесь все совсем неоднозначно. Может ли программа действительно принимать подобные решения на уровне опытного судьи? Может ли она принять во внимание все детали, которые судья изучил бы, прежде чем определять чье-либо наказание?

Представим ненадолго, что к 2062 году компьютерная программа сможет учитывать различные дополнительные факторы и выносить вердикт лучше судей. Стоит ли нам оставлять на этих должностях людей? Не обязаны ли мы доверить принятие таких решений превосходящим нас в этом деле компьютерам?

А теперь самое интересное. В исследовании 2016 года COMPAS предсказал, что черные подсудимые совершают рецидив своих преступлений чаще, чем это происходит на самом деле. В то же время он показал, что белые подсудимые повторно нарушают закон реже, чем это происходит в реальности[66]. Поэтому из-за предвзятости программы черные люди могут быть несправедливо осуждены на более долгие срок, чем белые. А те белые преступники, которые повторно совершат преступление, окажутся на свободе. Я очень сомневаюсь, что программисты Northpointe намеренно заложили в COMPAS расовые стереотипы. Однако они есть.

Причина этого нам неизвестна. Из коммерческих соображений Northpointe отказался раскрывать детали того, как работает COMPAS. Подобные основания для секретности сами по себе вызывают некоторые вопросы. Однако мы знаем, что программа обучалась на исторических данных, которые, скорее всего, и были полны расовых предубеждений. Раса не была частью входных данных, но почтовый индекс был. Для некоторых мест это почти то же самое, что указание расовой принадлежности. Возможно, дело в том, что в черных районах больше полицейских патрулей, а потому вероятность задержания черного правонарушителя выше? Возможно, полицейские руководствуются расовыми стереотипами и чаще останавливают черных? Возможно, причина совершения многих преступлений – бедность, а потому, основываясь на почтовом индексе, мы просто наказываем бедность?

Как только мы обнаружили подобную предвзятость машины, мы можем постараться ее устранить. Мы должны определить, в чем причина расовой предубежденности прогнозов программы машинного обучения, а затем научить ее избегать такой предвзятости. Даже если нам это удастся, вопрос о том, стоит ли доверять такие решения компьютерам, останется спорным. Лишение свободы – одно из самых сложных решений, которые принимает общество. К этому нужно относиться серьезно. Мы отказываемся от важной части нашего естества, когда передаем эту функцию машине.

Несмотря на большое количество негативных отзывов о COMPAS, ошибки этой программы продолжают повторяться. В 2017 году полиция на северо-востоке Англии начала использовать машинное обучение, чтобы определить, стоит ли держать подозреваемого под стражей. Инструмент оценки риска ущерба использует полицейские данные, а также историю правонарушений подозреваемого и выборочную демографическую информацию, чтобы определить степень вероятности, с какой подозреваемый повторно совершит преступление, если окажется на свободе. И опять один из основных факторов, с помощью которых формулируется прогноз, – почтовый индекс.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги

Бессмертные. Почему гидры и медузы живут вечно, и как людям перенять их секрет
Бессмертные. Почему гидры и медузы живут вечно, и как людям перенять их секрет

Мало кто знает, что в мире существует две формы бессмертия. Первая – та самая, которой пользуемся мы с вами и еще 99% видов планеты Земля, – сохранение ДНК через создание потомства.Вторая – личное бессмертие. К примеру, некоторые черепахи и саламандры, риск смерти которых одинаков вне зависимости от того, сколько им лет. Они, безусловно, могут погибнуть – от зубов хищника или вследствие несчастного случая. Но вот из-за старости… Увольте!Мы привыкли думать, что самая частая причина смерти – это рак или болезни сердца, но это не совсем так. Старение – неизбежное увядание человеческого организма – вот самая распространенная причина смерти. Если с болезнью мы готовы бороться, то процесс старения настолько глубоко укрепился в человеческом опыте, что мы воспринимаем его как неизбежность.Эндрю Стил, научный исследователь, говорит об обратном – старение не является необратимой аксиомой. Автор погружает нас в удивительное путешествие по научной лаборатории: открытия, совершающиеся в ней, способны совершить настоящую революцию в медицине!Как выработать режим, способный предотвратить упадок собственного тела?Эта книга рассказывает о новых достижениях в области биологии старения и дарит надежду на то, что мы с вами уже доживем до «таблетки молодости».В формате PDF A4 сохранен издательский макет книги.

Эндрю Стил

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука