Ложная информация – передаваемая или распространяемая намеренно или ненамеренно – не является следствием новых цифровых технологий, которыми мы располагаем сегодня, но безусловно усиливается ими в последние годы. Итак, что же с этим можно сделать? В предыдущей главе речь шла о том, как мы можем подвергнуть сомнению то, что слышим и читаем, анализируя свои предубеждения и требуя веских доказательств. Но маловероятно, что какой-либо из этих советов действительно изменит мнение сторонника теории заговора. Таким образом, в конце концов, возможно, что мы, общество, должны найти возможности для коллективной борьбы с дезинформацией и что законы на этот счет должны быть ужесточены, чтобы не допустить распространения лжи и дезинформации, а также развращения наших мыслей и мнений.
Эта проблема, к сожалению, усугубляется с каждым днем, поскольку технологии, используемые для распространения информации, становятся все более продвинутыми. Мы уже находимся на той стадии, когда почти невозможно отличить поддельные изображения, видеоматериалы или аудио от реальных и когда создавать и распространять поддельные «факты» с помощью широкодоступных технологий становится все проще. При этом технологии, используемые для различения подделок и реальности, все еще слишком легко обмануть. Поэтому нам придется как можно быстрее найти способы и разработать стратегии борьбы с дезинформацией и фейковыми нарративами. Это потребует сочетания технологических решений и изменений в обществе и законодательстве.
Когда мы сегодня слышим об использовании алгоритмов искусственного интеллекта и машинного обучения, это, как правило, предполагает несколько негативный контекст фильтрации информации, с целью сделать нас более легкой мишенью для рекламодателей. Однако гораздо более коварным является тот факт, что эта же технология используется для распространения дезинформации и делает фейк почти неотличимым от реальности. Но искусственный интеллект можно использовать и во благо. Он может проверять, оценивать и фильтровать данные для нашей пользы. Вскоре мы разработаем усовершенствованные алгоритмы для выявления, блокирования или удаления онлайн-контента, признанного ложным или вводящим в заблуждение.
Сейчас мы наблюдаем, как технологический прогресс движется в противоположных направлениях. Хотя создать убедительную фальшивку становится все проще, ту же технологию можно использовать и для проверки этой информации. Какая из этих двух конкурирующих сил (добро против зла) в конце концов победит, зависит от нас и от того, как мы будем реагировать.
Пессимисты, естественно, спросят, с чьей же правдой мы в итоге останемся. Некоторые могут даже возразить, что личная свобода должна цениться выше истины. Они скажут, что усиление цензуры и массовой слежки приведет к созданию официальной «правды», с которой обществу придется соглашаться. Или, возможно, они обеспокоены тем, что технологии, используемые для фильтрации фейковой информации, внедряются влиятельными корпорациями, например Facebook и Twitter, которые сами по себе не являются полностью объективными и могут иметь свои корыстные интересы и политические идеологии.
Безусловно, отрадно видеть, что многие крупные социальные сети в настоящее время начинают внедрять все более сложные алгоритмы для борьбы с контентом, который общество в целом считает морально нежелательным, таким как подстрекательство к насилию, опасные идеологии, расизм, женоненавистничество и гомофобия, а также информация, фальшивость которой не оставляет сомнений. Однако передача этой ответственности на «аутсорсинг» частным и крайне могущественным организациям, цель которых состоит все-таки в получении прибыли, может оказаться не совсем желательной в долгосрочной перспективе. И если нам придется это делать, то мы должны найти четкие способы привлечения таких организаций к ответственности за шаги, предпринимаемые от нашего имени.