На примере комментариев «платных троллей», а также на художественном и психопатологическом материале Георгий Чернавин разбирается в том скрытом аспекте нашей реальности, который очень часто остается для нас неосознанным. Тонко чувствуя «дух времени», он описывает современный мир, мнение о котором мы теперь привыкли формировать по комментариям в интернете от людей, которых никогда не видели и многие из которых не существуют в действительности. Исследование сопровождается полевым материалом (интервью с выпускниками философских факультетов – «платными комментаторами» и дискуссией с современными русскоязычными философами [Чернавин 2021].
Однако, в обеих крайностях наивной ошибки и расчетливой воли, и в промежуточных формах ключевой характеристикой фейка оказывается его вменение актору. Точнее, его безответственность или желание уйти от ответственности. Это может делаться бессознательно, в силу некоего случайного «человеческого фактора» (безграмотности, недальновидности, глупости). И тогда проведенная аналитика, разъяснение устраняют, демпфируют последствия таких фейков. Или это может быть сознательное стремление уйти от ответственности за провокативные действия. Такие фейки становятся частью пропаганды, рекламы, недобросовестного маркетинга, черного пиала, информационных и гибридных войн. И в этом случае как фейки, так и их разоблачение становятся борьбой конкретных социальных сил.
Изменило коммуникацию, ее содержание и даже структуру использование ботов (от англ. «bot» – сокращенно от «robot») – автоматизированных алгоритмических программ, что позволяет резко увеличить скорость порождения и распространения информации, привлекая внимание более широкой аудитории. Фактически речь идет о человеко-программных формах коммуникации.
Первоначально это были программы, избавлявшие автора от рутинной работы, экономившие время анализа и систематизации информации. Затем боты стали применяться для регулирования социальных взаимодействий, для общения с пользователем, отвечать на простые вопросы, собирать необходимые данные, эффективно распространять рекламу, оптимизировать взаимодействие фирм с клиентами. На качественно новый уровень ситуацию вывело создание сетей ботов («bot-net») – системы алгоритмов, которые обмениваются данными под управлением оператора (botherder, ботовод) [Мартьянов, 2016]. В результате изменились коммуникативная структура, формат создания и потребления контента. Если раньше контент в социальных сетях Интернета создавался авторами и стоящими за ними акторами (владельцами сайтов, редакторами, журналистами, блогерами), а пользователи были его пассивными потребителями, то теперь действия, которые осуществлял автор (формировать сообщение, отправлять его, отвечать, комментировать чужие сообщения и т. д.) совершает бот.
Важно понимать, при этом, что бот – это не аккаунт, а программа управления аккаунтом и такие программы создали миллионы аккаунтов пользователей, маскирующихся под реальных людей во всех социальных сетях – от Facebook до Twitter и т. п. Один пользователь имеет возможность управлять несколькими аккаунтами, загружать большой контент и управлять графиком доставки. Так что любой пользователь даже со средним уровнем информационной продвинутости, с элементарными навыками программирования может разрабатывать и запускать боты, не говоря уже о работе специальных структур – так называемых «фабриках ботов».
Такая ситуация придает ботам роль активных агентов коммуникации, влияющих на развитие социальной жизни, фактически, придавая автоматизированным алгоритмам институциональный статус [Napoli 2014], а применительно к политическим процессам и политически ориентированную роль [Howard, Woolley, Calo 2018: 85]. В принципе, такие социально-политические боты амбивалентны. Они могут использоваться как для манипуляции общественным мнением, дискредитации инакомыслия, так и для гражданских инициатив [Gorwa, Guilbeault 2018: 14–15]. Причем эффект использования ботов сложно спрогнозировать даже самим разработчикам таких автоматизированных алгоритмов [Woolley, Howard 2016: 4883]
По итогам обстоятельного обзора подходов к изучению использования ботов в политической сфере, которые представлены в зарубежной и отечественной литературе, В.В. Василькова и Н.И. Легостаева выделили шесть основных направлений такой практики: ведение «мягких информационных войн»; пропаганда проправительственной точки зрения; создания искусственного общественного мнения (астротурфинг); влияние на общественное мнение путем конструирования агентов влияния или ложных лидеров общественного мнения; делигитимация властных структур, поддержка оппозиционных сил и структур гражданского общества; формирование повестки дня, ведение политических дискуссий [Василькова, Легостаева 2019]. На материале использования ботов в электоральных практиках в США, Великобритании, Венесуэле, Японии и др., исследователи выявляют три основные стратегии, реализуемые с помощью ботов: привлечение сторонников, конструирование позитивного имиджа кандидата, дискредитация конкурента.