Читаем Общество контроля. Как сохранить конфиденциальность в эпоху тотальной слежки полностью

Закон штата Нью-Йорк требует, чтобы в центральную базу данных штата вносили ДНК только тех, кто уже осужден. Но этот закон не распространяется на города. Есть ли в этом смысл? Какими вообще должны быть требования закона, когда речь заходит о сборе правительствами генетических баз данных? Какой контроль мы должны иметь над собственным генетическим и биометрическим материалом и над тем, когда государство может собирать такие данные, кто может их видеть и с какой целью? В настоящее время у нас фактически нет никакого контроля.

Технологии меняются быстрее законов. Это описательное утверждение, но оно довольно близко к тому, чтобы стать нормативным. Закон не должен допускать произвольных трактовок. Инновации не должны быть громоздкими или зависимыми от судебных решений. Однако сегодня неприкосновенность частной жизни оказалась в такой опасности, от которой не защититься с помощью допотопных правил и законов, разработанных еще в эпоху дисковых телефонов и бумажных писем.

Нам нужно задуматься над тем, что означает конфиденциальность во времена постоянной слежки. Над тем, что есть разумное ожидание конфиденциальности, особенно в общественных местах. Например, вы вряд ли будете возражать против того, чтобы вас случайно сняла камера видеонаблюдения, которую магазин направил на входную дверь, когда вы быстро проходили мимо по дороге на работу. А если эта камера вдруг направится именно на вас, а после нее – следующая, и та, что через улицу, и те, что в следующем квартале? Каждая будет делать то же самое, что и первая: фиксировать ваше изображение, пока вы находитесь в общественном месте. Но, в отличие от одиночной случайной камеры, теперь мы видим другой масштаб и другую цель, а это уже вызывает возражения.

Наконец, подумайте, как любая новая форма технологии ставит под угрозу равенство и справедливость или, наоборот, способствует им.

Начните с алгоритмов прогностической работы полиции, которые предсказывают, где могут быть совершены преступления, и инструментов досудебной оценки риска, которые определяют, будет ли человек освобожден или задержан до суда. Ожидается, что эти алгоритмы могут, кроме прочего, устранять или хотя бы уменьшать системную предвзятость. Например, многоопытный капитан полиции, у которого сознательно или бессознательно сложились предвзятые суждения о конкретной расовой группе, обычно назначает офицеров для патрулирования района, где эта группа чрезмерно представлена. Или судья, у которого за десятки лет, проведенных перед скамьей подсудимых, сформировалось подобное стойкое предубеждение, привычно решает судьбу члена той же самой группы, однако теперь департамент полиции и суд будут использовать анализ данных, чтобы принимать менее предвзятые решения.

PredPol, одна из ведущих компаний в области полицейского прогнозирования, заявляет, что ее алгоритм использует только три наиболее объективные опорные точки: тип преступления, место преступления, дата и время преступления[16]. Конкурент PredPol под названием ShotSpotter Missions (пока его не купил ShotSpotter, он назывался HunchLab) утверждает, что его алгоритм не использует личную информацию для создания прогнозов. Он анализирует исторические данные о преступности на соответствующей территории, звонки в службу поддержки, день и время (преступность обычно выше по вечерам и в выходные), предстоящие события (например, назначенные концерты или спортивные мероприятия, из-за которых на одной и той же улице могут одновременно скапливаться толпы людей, возможно, находящихся в состоянии алкогольного опьянения), и факторы окружающей среды (например, плотность баров и клубов в данном районе)[17].

Но исторические данные о преступности не дают объективной картины всех преступлений, совершенных в городе, – это список всех преступлений, зарегистрированных полицией. Если определенные районы – в первую очередь, бедные и полиэтнические – находятся под чрезмерной опекой полиции, а некоторые законы применяются предвзято (например, афроамериканцев арестовывают за преступления, связанные с марихуаной, в девять раз чаще, чем белых, несмотря на одинаковые уровни употребления), то использование таких данных в алгоритме увековечит эти предубеждения под маской объективности.

Схемы арестов, порожденные расовой предвзятостью, подсказывают, куда нужно направлять полицию для выявления новых преступлений. В своей выдающейся книге «Убийственные большие данные»[18] Кэти О’Нил называет это гибельной петлей обратной связи, в которой контроль сам по себе порождает новые данные, оправдывающие усиление контроля. Это перекликается со знаменитым эффектом уличного фонаря, когда пьяница ищет потерянные ключи под фонарем не потому, что там их выронил – там светлее. Но здесь речь идет о преступности и расе, а не о потерянных пьяницей ключах.

Перейти на страницу:

Похожие книги