Иные журналисты собирают и анализируют данные самостоятельно. В 2015 г.
Штат Флорида. Дата-журналисты
Некоторые журналисты собирают данные из официальных источников и изучают их на предмет каких-либо идей, что иногда приводит к весьма неприятным фактам. Скажем, невероятным примером сотрудничества исследователей с представителями индустрии стал случай, когда дата-журналистка Шерил Филлипс из Стэнфордской лаборатории журналистики данных предложила своим студентам запросить информацию со всех 50 штатов о том, кого полицейские останавливали для проверки. Журналисты (не только из Стэнфорда) обнаружили, что белых останавливают реже[18].
Под журналистикой данных также понимается анализ алгоритмической ответственности – небольшая профессиональная область, к которой я принадлежу. Алгоритмы и иные вычислительные инструменты используются в том числе для принятия решений – от нашего имени. Алгоритмы определяют стоимость степлера, которую вы видите во время онлайн-шопинга; они подсчитывают, сколько вы будете платить за медицинскую страховку. Алгоритм фильтрует ваши данные на предмет того, человек вы или бот, при подаче резюме через платформу поиска работы. Дело в том, что в рамках демократии целью свободной прессы является привлечение к ответственности тех, кто принимает решения. Аналитика алгоритмической ответственности как раз занимается этим в цифровом мире.
История под названием «Предвзятость машины» (Machine Bias), опубликованная в 2016 г. некоммерческой организацией ProPublica, – выдающийся пример анализа алгоритмической ответственности[19]. Журналисты ProPublica обнаружили, что алгоритм, используемый при вынесении судебного приговора, был настроен против афроамериканцев. Информация, собранная во время полицейского допроса, заносилась в компьютер. Затем алгоритм COMPAS анализировал данные и прогнозировал вероятность того, что человек вновь совершит правонарушение. Предполагалось, что подсчет поможет судьям принимать более объективные решения. В результате получилось, что афроамериканцы получали более долгие сроки, нежели белые.
Несложно заметить, насколько техношовинизм ослепил разработчиков COMPAS и не позволил им увидеть вред, который алгоритм может нанести. Вера в то, что решения, принятые компьютером, лучше или честнее, чем человеческие решения, приводит к тому, что нас перестает интересовать релевантность данных, представляемых системе. «Что посеешь, то и пожнешь» – легко об этом забыть, особенно если вы действительно