Некоторые даже утверждают, что любая система, способная оценивать информацию как истинную или ложную, по сути своей необъективна. Однако, хотя верно то, что проектированием этих систем занимаются люди, имеющие ценности и предубеждения, это слишком вольное использование данного аргумента, которое я лично не приемлю. По мере того как ИИ становится все более продвинутым, он безусловно помогает нам отсеивать ложь от фактов, подкрепленных настоящими доказательствами, но он также может выявлять места, где существует неопределенность, субъективность и различные нюансы. В известном комедийном скетче на британском телевидении некто, играющий роль сотрудника службы поддержки клиентов, предлагает им генерируемые компьютером решения и всегда отвечает на самые разумные запросы клиентов фразой: «Компьютер говорит “нет”». Сейчас технологии ушли далеко вперед. Достижения последних лет означают, что ИИ вскоре сможет интегрировать в свои алгоритмы нравственное и этическое мышление, что позволит ему защищать такие права, как свобода слова, и одновременно отсеивать и блокировать ложные нарративы и дезинформацию. Нам нужно контролировать предвзятость, и поэтому то, какие именно моральные принципы закодированы в этих алгоритмах, следует открыто и коллективно обсуждать всем обществом. Что насчет религиозных и светских убеждений? Что насчет культурных норм? То, что одни члены общества считают приемлемым и даже необходимым моральным стандартом, для других – табу.
Всегда найдутся те, кто с недоверием относится к любым попыткам отделить правду от лжи. В каком-то смысле это неизбежно. Это не признание поражения, но такова реальность. Мы не можем надеяться убедить всех, но, как общество, должны попытаться сделать так, чтобы никто, намеревающийся распространять ложь и дезинформацию в своих гнусных целях, никогда не получил большого влияния, ведь это может иметь далекоидущие последствия и потенциально изменить курс развития человечества. История знает немало деспотичных правителей, неприятных политических лидеров и лжепророков, которые с помощью силы, принуждения и лжи убедили миллионы следовать за ними. Такие люди будут всегда. Но мы можем попытаться помешать им использовать науку и технологии для продвижения своей повестки.
В чем же тогда заключается урок? Я старался заканчивать каждую главу на позитивной ноте, но в этот раз вырисовывается довольно мрачная картина. Итак, есть ли в будущем надежда на то, что истина восторжествует над ложью? Существует расхожее мнение, что ситуация, вероятно, ухудшится, прежде чем стать лучше, но мы разрабатываем инструменты для решения этой проблемы. Можно снова обратиться к научному методу. Когда заявляется, что информация подтверждена доказательствами, возникает необходимость оценить качество этих доказательств, например, присвоив им «уровень достоверности». Таким образом, наряду с изложением любого утверждения, нам следует также пытаться оценить связанную с ним неопределенность. Каждый ученый знает, как наносить планки погрешностей на точки данных; мы должны делать то же самое – по духу, а не буквально, – сталкиваясь с новой информацией. Для этого нам нужно будет разработать технологии искусственного интеллекта, которые бы присваивали информации «индекс доверия», показывающий, как достоверность информации связана с предполагаемой надежностью источника сведений. Если источник (новостное издание, интернет-сайт или даже отдельный «инфлюенсер» в соцсетях) помечен как распространяющий фейковые новости, то он будет иметь более низкий индекс доверия.
Мы также делаем успехи в так называемых