Google и Facebook имеют доступ к такому количеству информации, что они могут весьма достоверно предположить ваше местожительство, национальность, сексуальную ориентацию и то, что вас возмущает. Они могут определить, что вы скрываете от родных и от налоговой службы, знают о вашей алкогольной аддикции или, скажем, о супружеской измене. Эти предположения, безусловно, далеко не стопроцентны, но сама мысль о том, что компании располагают инструментами, позволяющими делать такие выводы, уже вызывает дискомфорт.
Опасения относительно безопасности привели нас к дискуссиям о роли правительства в этом вопросе. Разные страны, начиная с США и заканчивая Китаем, пытаются разобраться, как далеко зашла монополизация интернет-пространства и как применять антимонопольные законы для ограничения власти ИТ-гигантов.
Европа проснулась раньше — Европейский союз решил заложить фундамент нового порядка в отрасли, приняв GDPR — по словам европейских законодателей, «самый жесткий закон в сфере безопасности и приватности». Другие страны присматриваются к документу, чтобы на его основе выстроить собственную нормативную базу. GDPR — огромный шаг вперед, он выставил хорошую планку.
В GDPR заложено представление, что пользователь должен вернуть себе контроль над данными и самостоятельно решать, кто будет их видеть и использовать, вплоть до извлечения прибыли из предоставления доступа к ним. За первые несколько лет внедрения GDPR уже состоялись подвижки.
Закону удалось просветить широкие слои пользователей относительно рисков, связанных с персональными данными. Кроме того, он стал требовать от сайтов и приложений по всему миру пересмотреть свою работу, чтобы свести к минимуму преступное, некомпетентное или просто халатное отношение к пользовательским данным. Компаниям, нарушающим GDPR, грозят большие штрафы[146].
Однако не все детали этого закона имеют практическую ценность, и можно сказать, что в общем он мешает развитию ИИ. В нынешней форме GDPR обязывает компании быть прозрачными перед людьми в использовании персональных данных.
От пользователя требуется четкое согласие на каждое действие с ними — чтобы компания могла приступить к их сбору (например, вы даете Facebook’у свой адрес только для доставки онлайн-покупок). Данные должны быть защищены от несанкционированного доступа, утечек или кражи. У автоматических операций должно быть обоснование, а по требованию пользователя должен подключаться специалист-человек.
Я уверен, что принятие GDPR имеет благородные намерения — обеспечить прозрачность, подотчетность и конфиденциальность оборота персональных данных. Однако внедрение регламента, описанное выше, вряд ли способствует достижению этого, а то и может помешать. Так, сложно ограничить целевое использование каждого фрагмента данных, поскольку ИИ развивается непредсказуемо, и предусмотреть все цели использования данных в самом начале их сбора попросту не представляется возможным.
Скажем, сохранение почтовой службой Gmail всей вашей электронной переписки позволяет вам легко найти нужные письма. Но Gmail разработал новую функцию автозаполнения, и ее потребовалось обучать на прежних данных. Нецелесообразно рассчитывать, что пользователи поймут условия обработки данных каждой компанией, когда им придется в очередной раз подтверждать свое согласие. (Сколько раз вы натыкались на всплывающее на сайте окно, перекрывающее текст, и просто жали «ОК», не вникая в смысл уведомления?)
GDPR требует, чтобы пользователь имел право обратиться к специалисту-человеку, если переживает о том, как ИИ использует его данные. Но это может вызывать неразбериху — ведь люди не так хороши в принятии решений, как ИИ. И наконец, цель снижения количества удерживаемых данных, заложенная в GDPR, серьезно ограничивает развитие систем на ИИ.
Если задуматься над этим вопросом в отрыве от контекста, большинство людей захотят вернуть себе права на распоряжение своими личными данными — и для этого у них есть GDPR и прочие нормативно-правовые акты. Но взглянем на проблему через призму функциональности ИИ-программ и приложений. Если отнять у них львиную долю данных, они заметно поглупеют либо вовсе перестанут работать.
В рассказе «Остров счастья» мы исходим из того, что, выплескивая воду (минимизируя риски, связанные с сохранением приватности), можно случайно выплеснуть и младенца (парализовать сервисы на ИИ). Вместо этого можно вывести технологии на более зрелый уровень, когда ИИ станет можно доверять, — тогда мы без опасений позволим ему хранить наши данные, однако сможем запрещать использовать их по его (ИИ) усмотрению.
Если бы этот «доверенный ИИ» знал о нас все, что известно Google, Facebook и Amazon и даже больше, наши возможности намного превысили бы функционал сегодняшних интернет-сервисов. Множество разрозненных хранилищ, где содержатся наши данные, сольются в гигантский информационный океан. Наш «доверенный ИИ» (назовем его Остров) узнает о нас все и сможет сам отвечать на запросы данных от третьих сторон.