Государственный сектор Великобритании будет лидировать, подавая пример безопасного и этичного внедрения ИИ. Цель правительства состоит в том, чтобы сформировать самую надежную и инновационную систему управления ИИ в мире. Это будет достигнуто путем создания системы управления ИИ, которая учитывает уникальные проблемы и возможности ИИ, оставаясь при этом гибкой, соразмерной и не создавая ненужного бремени, в том числе:
– Обеспечение надежности продуктов и услуг ИИ за счет поддержки развития инструментов и услуг обеспечения ИИ для предоставления пользователям и регулирующим органам значимой информации о системах ИИ;
– Увеличение вклада Великобритании в разработку глобальных технических стандартов ИИ, чтобы перевести исследования и разработки надежного ИИ в надежные технические спецификации и процессы, которые могут обеспечить глобальную совместимость и минимизацию затрат на соблюдение нормативных требований;
– Укрепление потенциала регулирующих органов Великобритании в области использования и оценки ИИ, обеспечения того, чтобы они могли выполнять свои обязанности по мере выхода на рынок новых продуктов и услуг на основе ИИ;
– Подавая пример безопасного и этичного внедрения ИИ, правительство возглавляет его с самого начала;
– Работая с партнерами по всему миру, правительство продвигает международные соглашения и стандарты в области ИИ, которые обеспечивают процветание и безопасность государства.
Поддержка инноваций и внедрения при одновременной защите общества и граждан, укреплении доверия
Великобритания имеет прочную международную репутацию страны, где верховенствует закон. Чтобы развить ее, правительство изложило инновационный подход в Плане цифрового регулирования. В Плане признается, что хорошо продуманное регулирование может оказать мощное влияние на стимулирование роста и формирование процветающей цифровой экономики и общества. В Плане также признается, что высокотехнологичные предприятия, в том числе те, которые разрабатывают и используют технологии ИИ, в настоящее время работают без соответствующих рамок. Существующие правила и нормы, которые до сих пор определяли деловую активность, во многих случаях не были разработаны для этих современных технологий и бизнес-моделей.
Это особенно относится к ИИ с его мощными возможностями обработки данных и анализа, который нарушает традиционные бизнес-модели и процессы. Растет осведомленность о потенциальных рисках и угрозах, относящихся к технологиям ИИ. К ним относятся проблемы, связанные со справедливостью, предвзятостью и подотчетностью систем ИИ. Например, в отчете Комиссии по расовым и этническим различиям отмечена озабоченность по поводу потенциальных новых способов введения предвзятости с помощью ИИ. Другой проблемой является способность ИИ подрывать частную жизнь и свободу человека, а также наносить физический, экономический и финансовый ущерб. Например, кибербезопасность следует учитывать на ранних этапах разработки и развертывания систем ИИ.
Вышесказанное не означает, что ИИ в настоящее время не регулируется. Великобритания уже контролирует многие аспекты разработки и использования ИИ с помощью «межсекторального» законодательства и соответствующих органов. Например, существует регулирование в таких областях, как защита данных (Управление Комиссара по информации), конкуренция (Управление по вопросам конкуренции и рынков), права человека и равенство (Комиссия по вопросам равенства и прав человека), финансовые услуги (Управление по финансовому поведению), медицинские изделия (Агентство по регулированию лекарственных средств и медицинских изделий).
Структура защиты данных Великобритании (Общие правила защиты данных Великобритании и Закон о защите данных 2018 года) технологически нейтральна и не предназначена для всестороннего регулирования систем ИИ или любых других конкретных технологий. В 2018 году правительство согласилось с мнением Палаты лордов в том, что «общее регулирование, касающееся ИИ, на данном этапе было бы неуместным… [и] что существующие отраслевые регулирующие органы лучше всего подходят для рассмотрения влияния на их сектор любого последующего регулирования, которое может потребоваться».
Есть несколько веских причин, по которым подобный отраслевой подход имеет смысл:
1. Границы рисков и вреда ИИ являются серыми, потому что вред, причиняемый технологиями, часто не связан с ИИ или является продолжением проблем, не связанных с технологией, а также потому, что ИИ быстро развивается и, следовательно, то, что считается частью системы ИИ, постоянно меняется.
2. Варианты использования ИИ и их более широкое воздействие сами по себе могут быть очень сложными. Существует серьёзное ограничение в том, что может быть охвачено сквозным законодательством об ИИ, и независимо от общего подхода к регулированию, детали всегда нужно будет рассматривать на уровне отдельных случаев использования и нанесения вреда.