Читаем 2062: время машин полностью

Становятся известны также примеры намеренно предвзятых алгоритмов, которые нарушают закон. К примеру, в 2015 году обнаружилось, что компания Volkswagen встроила в некоторые свои дизельные модели сложный алгоритм, который запускал полный контроль выбросов только в момент тестирования. Это позволяло контролировать выбросы оксидов азота так, чтобы двигатель казался менее загрязняющим, чем он есть на самом деле. Теперь Volkswagen ждут штрафы на сумму более чем в 30 миллиардов долларов, а также иные санкции.

Другой пример всплыл в 2017 году. Оказалось, компания Uber незаконно использовала свою программу Greyball, чтобы не подчиняться регулятивным мерам со стороны правительства. Отслеживая правительственные учреждения, информацию о кредитных картах чиновников и их страницы в соцсетях, Uber пытался не допустить использования приложения правительственными чиновниками.

Тот факт, что в обоих примерах фигурируют автомобили, должен заставить нас задуматься. Можно ожидать, что в погоне за прогрессом в сфере транспорта и разработки автономных средств передвижения, электрических автомобилей и грузовиков, а также новых видов транспорта многие транспортные компании поддадутся искушению незаконно использовать алгоритмы. На кону – триллионы долларов, а потому потенциальная прибыль огромна. Кроме того, у нас не очень много инструментов, которые помогли бы это предотвратить.

Что такое честность?

Поручая принятие решений алгоритмам, мы должны точнее сформулировать понятие честности. Компьютеры невероятно исполнительны, когда дело касается соблюдения инструкций, – иногда даже слишком. Так что если мы хотим заставить их поступать честно, мы должны точно сформулировать для них это понятие.

Вернемся к программе COMPAS, однако чтобы не касаться в обсуждении острой расовой темы, зададимся вопросом, что означает честное поведение программы в отношении мужчин и женщин. Правосудие должно быть слепым, а любая программа должна быть слепа к полу. Но что это означает на самом деле?

Есть разные понимания справедливости, которые можно запрограммировать. Одна из самых простых мер – уравнять процент мужчин и женщин, среди которых программа спрогнозирует совершение повторного правонарушения. Однако это очень грубый способ. Женщины могут совершать меньше преступлений, чем мужчины, и такой метод приведет нас к тому, что в тюрьму попадет дополнительное количество женщин, а опасные мужчины окажутся на свободе.

Более удачная мера справедливости заключается в одинаковой погрешности для мужчин и женщин. Это значит, что процент ошибочной классификации должен быть равным для женщин и мужчин. Женщины совершенно справедливо могли бы возмутиться, если бы неправильно был классифицирован больший процент правонарушителей женского пола, особенно если бы их занесли в категорию вероятных рецидивистов.

Проблема с погрешностью как мерой справедливости заключается в том, что правильное определение потенциальных рецидивистов может оказаться важнее, чем правильное определение тех, кто не совершит преступление повторно. Отпустить рецидивиста выйдет «дороже», чем не отпустить того, кто больше не совершит правонарушение. Смешивая эти две группы, мы предполагаем, что они одинаково важны. Правительственные и судебные ошибки также противоречат пропорции Блэкстона. Сэр Уильям Блэкстон в своем трактате XVII века под названием «Комментарии к английским законам» писал: «Лучше, чтобы от правосудия скрылись десять виновных, чем пострадал один невиновный».

Третья мера честности разбивает эти две группы. Мы можем задать равные ложные положительные и ложные отрицательные показатели для мужчин и женщин. Ложные негативные показатели – это доля людей, которые совершают рецидив, хотя программа прогнозировала, что этого не произойдет. Ложные позитивные показатели – процент тех, кто не совершит преступление повторно, хотя согласно утверждению программы, должен был. Женщины совершенно справедливо возмутились бы, если бы ложные позитивные показатели для них были бы выше, чем для мужчин, и если бы в результате этого больше женщин были несправедливо заключены под стражу. И снова ложные негативные показатели могут быть гораздо опаснее для общества. Потому мы можем поставить во главу угла снижение именно этих показателей.

Четвертая мера справедливости по-другому подходит к вопросу прогнозирования. Мы можем задать одинаковые показатели ошибок при неудачном и успешном прогнозировании для мужчин и женщин. Показатель ошибок при неудачном прогнозировании – это доля людей, которые не должны были совершить рецидив, но совершили. Показатель ошибок при неудачном прогнозировании делит количество человек, которые не должны были повторить правонарушение, но сделали это, на количество тех, кто не повторил. Разница с ложным негативным показателем в том, что он делит количество тех, кто не должен был совершить рецидив, но совершил, на общее количество совершающих преступление повторно.

Перейти на страницу:

Все книги серии Технологии и бизнес

Технологии против человека
Технологии против человека

Технологии захватывают мир, и грани между естественным и рукотворным становятся все тоньше. Возможно, через пару десятилетий мы сможем искать информацию в интернете, лишь подумав об этом, – и жить многие сотни лет, искусственно обновляя своё тело. А если так случится – то что будет с человечеством? Что, если технологии избавят нас от необходимости работать, от старения и болезней? Всемирно признанный футуролог Герд Леонгард размышляет, как изменится мир вокруг нас и мы сами. В основу этой книги легло множество фактов и исследований, с помощью которых автор предсказывает будущее человечества. Разумеется, сколь бы ни были точны прогнозы, мы не сможем заранее узнать, как именно изменятся люди нового мира, как будут относиться к себе и друг к другу. Но к цивилизации будущего имеет смысл готовиться уже сейчас!Герд Леонгард входит в сотню главных лидеров мнений в Европе по версии Wired Magazine. The Wall Street Journal назвал Леонгарда одним из ведущих технологических футуристов в мире.

Герд Леонгард

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Прочая научная литература / Образование и наука
2062: время машин
2062: время машин

2062 год – что это за дата? Ведущие эксперты по искусственному интеллекту и робототехнике предсказывают: в 2062 году мы сможем создать искусственный разум, который превзойдет возможности человека. Еще в начале 1990-х Гарри Каспаров уверен, что «в классических шахматах на серьёзном уровне компьютерам ничего не светит в XX веке»… и в 1997 году проигрывает компьютеру Deep Blue. А двадцать лет спустя AlphaGo выигрывает партию у лучшего в мире игрока в го. В интервью ВВС Стивен Хокинг заметил, что «полноценный искусственный интеллект может стать концом человеческой расы, поскольку будет самостоятельно и стремительно совершенствоваться, а люди, зависящие от медленной биологической эволюции, неспособны с ним конкурировать». Так ли это? Что же нас ждет теперь? На этот вопрос отвечает Тоби Уолш, признанный специалист по искусственному интеллекту. В своей книге он внимательно и последовательно изучает каждую сторону нашего «светлого будущего»: от мировой экономики до новой человеческой идентичности. Уже поздно обсуждать, хорош или плох будет мир в этом очень недалеком будущем. Сейчас главное – понять, как к нему готовиться.

Тоби Уолш

Зарубежная образовательная литература, зарубежная прикладная, научно-популярная литература / Учебная и научная литература / Образование и наука

Похожие книги