Поиск устойчивого и справедливого баланса – непростая задача. Но альтернатива – отсутствие этических норм использования научных достижений и технологий в информационной среде – будет иметь печальные последствия. С одной стороны, игнорирование этических вопросов может вызвать неприятие обществом, как было, например, с программой использования медицинских данных Национальной службы здравоохранения Англии. С другой стороны, чрезмерные усилия по защите прав личности и этических ценностей в неверном контексте могут привести к применению слишком жестких регулятивных мер. Это в свою очередь может уменьшить шансы на извлечение из цифровых решений пользы для общества и человечества. Поправки к
Общему регламенту Евросоюза по защите данных (GDPR), предложенные Комитетом Европейского парламента по гражданским свободам, правосудию и внутренним делам (LIBE), показывают конкретный пример. Чтобы избежать обеих крайностей, при рассмотрении любого цифрового проекта, имеющего хотя бы отдаленное влияние на жизнь людей и планеты, рекомендуется руководствоваться четырьмя обязательными принципами: технической осуществимостью, экологической устойчивостью, социальной приемлемостью и предпочтительностью для человека. Это позволит минимизировать риски и не упустить открывающиеся возможности.
Как найти подобный баланс? За последние несколько десятилетий мы пришли к пониманию того, что не конкретная технология (компьютеры, планшеты, мобильные телефоны, протоколы Интернета, веб-приложения, онлайн-платформы, облачные вычисления и т. д.) представляет правильное направление наших этических стратегий. Это делают данные, которыми манипулирует любая цифровая технология. Именно поэтому такие понятия, как «этика Интернета», «робоэтика» и «машинная этика», теряют смысл, возвращая нас в те времена, когда казалось, что «компьютерная этика» дает правильное понимание проблемы. Прежде чем беспокоиться о конкретных цифровых технологиях и связанных с ними этических проблемах, таких как конфиденциальность, анонимность, прозрачность, доверие и ответственность, следует изучить жизненный цикл данных, от сбора и сохранения до управления и использования. Для того нам и нужны этические нормы работы с данными, чтобы маневрировать между риском общественного неприятия и слишком строгой регуляцией, чтобы находить решения, позволяющие извлечь максимум этической пользы из данных и алгоритмов на благо общества, всех нас и окружающей среды.
Этика работы с данными – ветвь этики, изучающая и оценивающая моральные проблемы, связанные с данными, алгоритмами и соответствующими практиками. Ее цель – формулировать и поддерживать правильные с моральной точки зрения решения (например, корректное поведение или правильные ценности) посредством разработки трех направлений исследований: этика данных, этика алгоритмов и этика практик.
Этика данных узко определяет взгляды на создание, запись, сопровождение, обработку, распространение, обмен и использование данных. Она занимается моральными проблемами, возникающими при сборе, анализе и применении больших наборов данных. Затрагиваемые вопросы варьируются от применения больших данных в биомедицинских исследованиях и общественных науках для профилирования, рекламы и филантропии до использования открытых данных в правительственных проектах. Одна из наиболее острых проблем – возможность повторной идентификации личности с помощью поиска, сопоставления и слияния данных, а также повторного использования крупных наборов данных. Риску подвергается и так называемая «групповая конфиденциальность», когда идентификация категорий людей, независимо от деидентификации каждого из них, может привести к возникновению серьезных этических проблем, от групповой дискриминации (например, по возрастному, этническому или половому признаку) до насилия, направленного на определенные группы людей.
Ввиду признанной неосведомленности общественности о преимуществах, рисках и сложностях, связанных с технологиями обработки данных, доверие и прозрачность – тоже очень важные вопросы этики данных.
Этика алгоритмов сосредоточена на программах, ИИ, искусственных агентах, машинном обучении и роботах. Она решает вопросы, возникающие в связи с тем, что сложность и автономность алгоритмов в их широком понимании продолжают расти. Алгоритмы создают этические трудности в обращении с искусственным интеллектом и интеллектуальными агентами, такими как сетевые боты. Особенно остро этот вопрос встает в случаях, где применяется машинное обучение. Одна из важнейших проблем – моральная и юридическая ответственность пользователей, проектировщиков и исследователей в отношении непредвиденных и нежелательных последствий и упущенных возможностей. В свете этого неудивительно, что изучение этических проблем, требований к алгоритмам и возможных нежелательных последствий (таких как дискриминация и продвижение антиобщественного контента) привлекает все больше исследователей.