Social bots in political communication

Cover Page

Abstract


In political communication, social bots are a new phenomenon of using automated algorithms that imitate behavior of real political agents in online social networks. The article presents a review of foreign and Russian approaches to the study of social bots. The authors identify three main thematic fields in the study of social bots: 1) types of social bots, 2) the use of bots in election campaigns, and 3) methods to detect bots. The article considers different types of social bots and concludes that in the political communication social bots’ typologies are based mainly on characteristics of their use (goals, functions, ways), which is determined by the aims of political agents that control social bots. The authors identify six key areas of using bots in the political communication: soft information wars; propaganda of pro-government position; astroturfing as a technology to create artificial public opinion; changing public opinion by constructing agents of influence or false public opinion leaders; delegitimization of government systems, support of opposition forces and civil society actors; setting agenda and political debates. The authors summarize the results of the analysis of bots’ usage in election campaigns (in the USA, Great Britain, Venezuela, Japan and other countries) and identify three main communication strategies based on bot-campaigns: 1) attracting supporters, 2) constructing a positive politician’s image, and 3) discrediting a political opponent. The comparative analysis of bots’ detection mechanisms showed that researchers use the same automated algorithms based on static and behavior characteristics but in different combinations. As bot accounts get more sophisticated and complex, the mixed method approach combining programming and social science methods will be developing too.


Трансформация политической коммуникации в эпоху цифровых технологий обусловлена не только формированием нового сетевого коммуникативного пространства, когда социальные сети становятся основной площадкой для выражения политических интересов, но также появлением и растущим влиянием гибридных человеко-программных форм - автоматизированных алгоритмов, опосредующих коммуникацию между людьми. На пересечении этих двух технологических трендов возник феномен ботов - автоматизированных программ, позволяющих распространять информацию с большой скоростью и эффективностью и привлекать внимание большого количества людей. С одной стороны, этот феномен вызывает огромный интерес исследователей и практиков в силу огромных перспектив его использования и общественного резонанса в связи с его манипулятивным воздействием на политические события (например, Brexit или выборы президента США в 2016 году). С другой стороны, область исследования социальных ботов и их применения представляет собой слабо структурированный и гетерогенный ландшафт, поскольку здесь аккумулируются разноуровневые и полидисциплинарные подходы к данному феномену (социологии, политологии, лингвистики, журналистики, сбора, обработки и анализа больших данных, машинного обучения и т.д.). Такой теоретико-методологический разрыв определил постановку цели статьи - проанализировать основные направления изучения социальных ботов в политической коммуникации, выделив те исследовательские области, в которых наработано более всего теоретического и эмпирического материала и сконцентрированы дискуссионные и разнонаправленные подходы. В статье обозначено три такие области: типология социальных ботов и их использования в политике; применение ботов в электоральных практиках; разработка методик выявления ботов. Типы социальных ботов и их использование в политике Разнообразие форм и широкое распространение систем автоматизированного распространения информации в самых разных сферах и социальных практиках (маркетинг, политика, журналистика, образование, социальные услуги, гейминг и др.) обусловлено их технологической эволюцией. Изначально боты (от англ. «bot» - сокращенно от «robot») представляли собой программное обеспечение в форме суррогатов, которые предназначались для экономии времени и усилий человека, поскольку позволяли анализировать и упорядочивать информацию на высоких скоростях, избавляя человека от рутинных задач. Первые боты были созданы для выполнения простых задач на закрытых платформах, но очень скоро они стали применяться для регулирования социальных взаимодействий в отдельных системах (например, RelayChat). Такие боты могли общаться с пользователем, отвечать на простые вопросы, собирать необходимые данные, эффективно распространять рекламу, оптимизировать взаимодействие фирм с клиентами. Новые возможности для использования ботов и бот-сетей («bot-net» - коллекция алгоритмов, которые обмениваются данными по нескольким устройствам для выполнения задач; социальная бот-нет - набор социальных ботов, которые принадлежат и управляются человеком-оператором, именуемым ботоводом (botherder) [6]), появились в связи с технологическим совершенствованием онлайн социальных сетей. Переход на Web 2.0 изменил форму потребления контента и коммуникативную структуру киберпространства. Раньше контент в Интернете создавался коммуникатором (владельцами сайтов, редакторами или журналистами), а посетители сайтов были его пассивными потребителями. Теперь пользователи стали активными субъектами киберпространства, способными не только создавать контент, но и выстраивать интенсивное взаимодействие друг с другом и контентом «путем установления связей оценок, комментариев, распространения информации и т.д.» [8. С. 37]. Формируется коммуникативная модель, которая может быть обозначена как «многие - многим». Новые технологические возможности онлайн социальных сетей и бот-программы породили феномен социальных ботов - это автоматизированное программное обеспечение, связанное с платформой, через которую боты взаимодействуют с реальными пользователями [25. P. 85]. Иными словами, бот совершает действия, которые должен осуществлять человек в социальной сети (отвечать, отправлять сообщения, комментировать чужие сообщения и т.д.). При этом бот не является аккаунтом - это программа управления аккаунтом (хотя в сложившейся традиции ботом обычно называют именно аккаунты, управляемые этими программами) [4. C. 253]. Такие программы создали миллионы аккаунтов пользователей, маскирующихся под реальных людей в социальных сетях Facebook, Twitter, Instagram, ВКонтакте и др. Поскольку реальные и суррогатные пользователи по коммуникативному поведению трудноразличимы, некоторые исследователи утверждают, что автоматизированные алгоритмы обретают институциональный характер, так как выполняют роль агента, влияющего на социальные условия [29], что особенно важно для политической коммуникации. «Агентный» характер социальных ботов и обусловил их активное использование в политической коммуникации. Появился даже специальный термин - «политический бот», под которым понимают аккаунт пользователя, который оснащен функциями или программным обеспечением для автоматизированного взаимодействия с другими учетными записями пользователей на темы, связанные с политикой [25. P. 85]. Иными словами, это боты, которые не только интерактивны, но и политически ориентированы. В политической коммуникации используются боты разных типов. Наиболее распространенным является разделение социальных ботов на полезных (доброкачественных) и злонамеренных (вредоносных) [16]. Доброкачественные боты генерируют контент, автоматически реагируют на сообщения, выполняют полезные услуги (новостные боты, информация о погоде, спортивные и траффик-боты и др.). Вредоносные боты разрабатываются для осуществления злонамеренных действий (спам, кража личных данных, распространение дезинформации и информационного шума во время политических дебатов, распространение вредоносного программного обеспечения и др.). Объединяя данную классификацию с классификацией ботов по степени имитации ими человеческого поведения [14], С. Штиглиц, Ф. Брахтен, Б. Росс и А.-К. Юнг создали «перекрестную» типологию социальных ботов: вредоносные, нейтральные и доброкачественные типы с высокой и низкой степенью имитации человеческого поведения [34]. При этом авторы, обобщая существующий массив работ по социальным ботам, констатируют, что большинство из них относят политических ботов к злонамеренному типу с высоким уровнем имитации человеческого поведения. Более того, интерес академического сообщества фокусируется на анализе этого типа ботов, что связано с агрессивным характером, высокой степенью распространения и слабой контролируемостью этих ботов общественностью. Несколько иную трактовку политических ботов предложили Р. Горва и Д. Гильбо: социальные боты как мощный политический инструмент имеют амбивалентный характер (позитивный и негативный) в зависимости от целей. С одной стороны, они могут использоваться для манипулятивных операций при формировании общественного мнения (в том числе с иностранным влиянием) и уничтожения диссидентов. С другой стороны, боты могут быть направлены на укрепление демократии, расширение прав и возможностей сообществ и гражданских инициатив в социальных сетях [19. P. 14-15]. Таким образом, классификация социальных ботов в контексте политической коммуникации основана преимущественно на параметрах их использования (цели, функции, способы), что связано с задачами стоящих за ними политических агентов. Обобщая российские и зарубежные исследования по данной тематике, можно выделить несколько основных направлений функционирования ботов в политической коммуникации. Они являются коммуникационным инструментом для: ведения «мягких информационных войн» в рамках информационного противостояния [2; 19: 26]; пропаганды проправительственной точки зрения [6; 19; 33; 38; 39]; астротурфинга (продуцирования и поддержания искусственного общественного мнения путем «наводнения» информационного пространства сообщениями определенного содержания) [3; 21; 24; 31]; изменения общественного мнения путем конструирования агентов влияния или ложных лидеров общественного мнения [7; 11; 12]; делигитимации властных структур, поддержки оппозиционных сил и структур гражданского общества [19; 22; 30; 32; 33; 37]; формирования повестки дня, ведения политических дискуссий [18; 27; 34; 35; 39]. Политические боты в электоральных практиках При описании практик использования политических ботов и бот-сетей особое внимание обычно уделяется анализу их применения в электоральном взаимодействии. На это существуют, по меньшей мере, три причины: 1) широкое участие в политических выборах разных социальных групп; 2) превращение онлайн социальных сетей в основную площадку агитации и электорального противостояния; 3) общественный резонанс в случае обнаружения политических ботов как протест против манипуляции общественным мнением и отсутствия прозрачности выборов. Практики использования бот-технологий в избирательных кампаниях различного уровня - от муниципальных до президентских - были зафиксированы и описаны на примере разных стран [36]. Первые исследования применения бот-технологий в США были посвящены промежуточным выборам в Палату представителей Конгресса США и выборам в Массачусетсе (Massachusetts Special Election - MASEN) в 2010 г. [28; 31]. Причем были выявлены и проанализированы бот-атаки на кандидатов с обеих сторон - представителей разных политических сил. В 2010 г. исследователи из университета Индианы обнаружили бот-кампании против кандидата в президенты США Криса Кунса, а также бот-атаки активистов консервативного крыла с сайта «Freedomist». На протяжении избирательного цикла 2012 г. организаторы кампании Митта Ромни были обвинены в привлечении бот-сторонников в сети Twitter для набора популярности [25. P. 87]. Наиболее интенсивное использование бот-технологий было зафиксировано в рамках президентской избирательной кампании в США в 2016 г., причем это касалось кандидатов и от демократической, и от республиканской партий [10; 23]. По подсчетам А. Бесси и Э. Феррара, в сети Twitter только за месяц наблюдения было обнаружено около 400 тысяч ботов, на которые приходится почти пятая часть всех твиттов, участвовавших в политических дискуссиях по поводу президентских выборов [10. P. 5]. Контент действующих ботов касался как конструирования положительного образа кандидатов, так и делигитимации образов политических противников. В частности, существовали боты, имитирующие представителей латиноамериканских избирателей и выступающих в поддержку Д. Трампа, что было особенно существенно на фоне антииммигрантской риторики Трампа, оттолкнувшей значительную часть латиноамериканского электората. В этот же период бот-сети в Twitter и Facebook распространяли обвинения в адрес Х. Клинтон в том, что она замешана в скандальных историях, связанных с педофилией и коррупцией, и высказывались предположения, что в этих бот-атаках замешаны российские автоматизированные кибер-команды. Цель политических ботов на этих выборах заключалась в манипулировании политическими дискуссиями, демобилизации оппозиции и создании несуществующей армии политических сторонников [23. P. 1]. Бот-кампании применялись в ходе проведения референдума в Великобритании, их целью была активная пропаганда выхода страны из Евросоюза [24]. Результаты исследования показали доминирование семьи хэштегов «За выход Великобритании из Европейского Союза», а также то, что сторонники Brexit использовали более высокий уровень автоматизации при публикации и распространении контента. В Венесуэле политические боты были инструментом крайне правых оппозиционных сил [17]. Также существуют исследования использования автоматизированных аккаунтов ведущими политиками Бразилии в период президентских выборов 2014 г., импичмента в 2016 г. и в период проведения муниципальных выборов в Рио-де-Жанейро в том же году. Так, во время политических дебатов в 2014 г. между Д. Русеф и А. Невесом боты использовались обоими кандидатами, что обострило противостояние в социальных сетях. После победы на президентских выборах Русеф все серверы и боты, используемые в ее кампании, были отключены, в то время как сторонники Невеса использовали потенциал ботов для компьютерной пропаганды оппозиционных сил, что стало ключевым фактором импичмента президента в 2016 г. [9. P. 14]. В Японии на выборах 2014 г. было замечено вмешательство политических ботов, распространяющих информацию в сети Twitter в поддержку премьер-министра С. Абэ [32]. Другие случаи, объединяющие первых политических лиц с бот-технологиями, связаны с агентами Национального агентства разведки Северной Кореи, которые распространили в сети Twitter более 1,2 млн сообщений, чтобы раскачать общественное мнение в пользу кандидата на пост президента Пак Кын Хе, одержавшего победу в 2012 г. [39]. Все это дает основание исследователям политической коммуникации говорить о том, что для многих современных политиков в настоящее время бот-сети становятся частью коммуникационного инструментария для проведения избирательных кампаний [25. P. 86]. Обобщая анализ практик проведения бот-кампаний в выборах разного уровня в разных странах, можно выделить три основные реализуемые с их помощью коммуникативные стратегии: 1) привлечение потенциальных сторонников кандидата; 2) конструирование позитивного политического имиджа политика; 3) дискредитация политического конкурента. Тактики этих базовых стратегий разнятся в зависимости от конкретной электоральной ситуации. При этом остается открытым вопрос, какой процент общественного мнения формируется под влиянием политического дискурса в социальных медиа, а какой - под влиянием информационного каскада, создаваемого ботами. Методики выявления ботов Расширение практик использования политических ботов актуализирует проблему их выявления и анализа степени их эффективности как инструмента политической коммуникации. Не случайно значительная часть работ по политическим ботам посвящена описанию методик их выявления и способов борьбы с ними. С одной стороны, современные информационные технологии предоставляют все более широкие возможности для создания и функционирования бот-сетей (например, в сети Twitter существуют два вида поставщиков услуг, которые позволяют пользователям создавать небольшие бот-сети и управлять ими - TweetDeck и TwitterWebClient позволяют одному пользователю управлять несколькими аккаунтами, хотя количество учетных записей, как правило, ограничено; Botize, MasterFollow и UberSocial позволяют пользователям загружать большой контент и управлять графиком доставки, не давая им прямой контроль над ранее существовавшими ботами, которые будут распространять контент). Складывается ситуация, когда пользователь даже со средним уровнем информационной грамотности и базовыми знаниями в программировании может разработать и запустить бот, не говоря уже о специальных информационных подразделениях (например, «фабриках ботов») [6]. Таким образом, быстро растет число реальных и потенциальных разработчиков политических ботов, и, соответственно - их заказчиков. Однако преимущественно злонамеренный характер политических ботов [34] (манипулирование, общественным мнением, астротурфинг, дискредитация политических деятелей и др.) является угрозой для «прозрачной» гражданской коммуникации, что заставляет исследователей и программистов разрабатывать все более эффективные методики выявления и идентификации ботов, в том числе и с учетом специфики социальных сетей. Наличие разных типов ботов порождает широкий спектр вариантов их идентификации, предполагающих комбинированные исследования с использованием как методов программирования, так и методов социальных наук, поскольку эффект от использования ботов сложно спрогнозировать даже самим разработчикам автоматизированных алгоритмов [39. P. 4883]. Сравнительный анализ методов обнаружения ботов показал, что исследователи используют схожие методы выявления автоматизированных алгоритмов, но в различных комбинациях. К известным методам выявления ботов относятся метод частотного анализа сообщений [12; 24], изучение статичных признаков ботов (наличие/отсутствие уникальных фотографий профиля, количество друзей и подписчиков, наличие/отсутствие биографических сведений, дата создания аккаунта и т.д.) [15; 20; 25], методы машинного обучения [10; 32], автоматизированного обнаружения ботов («Botometer») [12; 20], анализ распространяемого контента [20]. Например, Дж. Болсовер и Ф. Ховард в поисках ботов в социальных сетях Twitter и Sina Weibo в Китае использовали комбинированный подход, сочетающий частотный анализ сообщений и разработанный учеными университета Индианы инструмент «Botometer» [12]. С помощью инструмента BotOrNot им удалось выявить 54,7% автоматизированных аккаунтов в наборе данных 100 пользователей. Контент, генерируемый автоматизированными аккаунтами, составил 30% массива информации, с которым работали авторы. Другая точка зрения на использование автоматизированного инструмента обнаружения бот-программ состоит в признании его несовершенства, поскольку параметры «сеть дружбы» и «поведение аккаунта с учетом временных периодов» недостаточны для различения бота и реального пользователя - только контент и некоторые характеристики профиля выступают в качестве индикаторов бот-профиля [20. P. 21]. Ф. Ховард и Б. Коллани выявили бот-аккаунты в социальной сети Twitter в период проведения референдума по вопросу выхода Великобритании из состава Европейского Союза. Они собрали 1,5 млн твитов от 313 832 пользователей. Массив данных был собран на основе списков хэштегов, включающих в себя хэштеги «за выход Великобритании из Европейского Союза», «за продолжение членства Великобритании в ЕС» и нейтральные хэштеги с ссылками на проведение референдума [24. P. 3]. Был использован частотный анализ распространения твитов, который показал, что менее 1% подозрительных аккаунтов, которые попали в выборку, сгенерировали около 30% контента по вопросу референдума. Выявление ботов с помощью статичных признаков (фотографии профиля, биографическая информация пользователя) использовали Ф. Ховард, С. Вулли и Р. Кало [25]. В исследовании, посвященном выявлению ботов в сети Twitter во время президентских выборов 2016 г. в США, А. Бесси и Е. Феррара применили ряд методов, связанных с машинным обучением, которые позволили измерить временную динамику разговоров в социальных медиа с включением экзогенных параметров (информационное освещение политических дебатов, пресс-релизы) и эндогенных (например, кто кого поддерживает и как), а также с фиксацией географического параметра [10]. Корпусно-лингвистический подход с использованием алгоритмов для автоматической идентификации дубликатов применялись для изучения ботов в сети Twitter на выборах 2014 г. в Японии [32]. А.С. Алымов, В.В. Баранюк и О.С. Смирнова применяют поведенческие и статичные признаки определения бот-аккаунтов. По их мнению, чтобы определить, является ли пользователь ботом, необходимо использовать перечень показателей и оценку их веса в суммарной оценке критериев определения бот-профилей [1]. Они разделяют ботов на два типа: автоматические - выполняют простые инструкции, и управляемые - отличаются от автоматических тем, что их действия контролируются оператором, который в полуавтоматическом режиме участвует в обсуждениях. Такой подход включает два метода определения бот-профилей: анализ информации, получаемой во время присутствия пользователя на страницах социальной сети (онлайн-анализ), и анализ информации, размещенной пользователем на персональной странице (офлайн-анализ) [1. C. 57]. Первый связан с поведенческими признаками бот-профилей, к которым относятся высокая скорость комментирования, комментарии с разных аккаунтов с одного IP за короткий промежуток времени, примитивное содержание комментариев или комментарии «не в тему», а также наличие дублей (или клонов) в сообщениях. Офлайн-анализ связан со статичными признаками, идентифицирующими пользователя как бот-профиль: отсутствие верификации аккаунта, аномальное количество друзей и подписчиков (слишком много или слишком мало при активном комментировании), незаполненные поля профиля, отсутствие уникального аватара, отсутствие уникальных публикаций автора (наличие только репостов), резкие скачки активности пользователя по наполнению профиля контентом, использование некорректного имени, отсутствие комментариев других пользователей на стене профиля, обилие рекламных постов, наличие вредоносных ссылок и др. В.О. Чесноков, изучая автоматизированных виртуальных пользователей, использует анализ графов ближайшего окружения. Он отмечает необходимость комбинированного подхода при изучении бот-профилей, сочетающего поведенческий анализ бот-профилей, статистический и семантический анализ текстов, а также анализ связей пользователя с использованием алгоритма выделения сообществ [8]. А.С. Катасев, Д.В. Катасева и А.П. Кирпичников при изучении бот-сетей используют методы машинного обучения - нейронные сети, дерево решений и логистическую регрессию [4], а также поведенческие признаки определения бот-сетей. Предметом анализа И.В. Котенко, А.М. Коновалова и А.В. Шорова были не отдельные бот-профили, а бот-сеть, состоящая из большого количества хостов с запущенным автономным программным обеспечением [5. C. 24]. В их исследовании используются алгоритмы моделирования бот-сетей, основанные на генерации модельного трафика со статистическими параметрами, подобным параметрам трафика реальной сети. В своей работе они проводят эксперименты по созданию архитектуры среды моделирования, предназначенной для анализа бот-сетей. Д.С. Мартьянов, исследуя политических ботов, использует статичные признаки бота (минимально заполненный профиль, отсутствие фотографий, подписки на несвязанные между собой паблики и т.д.) и отмечает, что в последнее время увеличилось число случаев использования программных ботов в политике для смены тем политических дискуссий, однако их неспособность вести диалоговое общение и повторяемость контента привели к тому, что в мире бот-технологий стал активно использоваться человеческий ресурс для более качественного выполнения функций роботов [6. C. 74]. Фабрики ботов становятся частью политического дискурса и превращаются в значимый фактор организации политического киберпространства. При этом решающую роль играют не крупные «фабрики ботов», а пресс-службы политических лидеров и партий, которые ведут официальные сайты, блоги и участвуют в информационной войне в роли ботов. Таким образом, развитие информационной инфраструктуры влечет за собой развитие автоматизированных алгоритмов - усложняется природа бот-аккаунтов, для определения которых скоро будет недостаточно статичного или поведенческого анализа, поэтому будущее исследований автоматизированных учетных записей связано с междисциплинарным подходом и комбинированными методами выявления ботов - с «гибридными системами обнаружения, которые могут оценивать содержание, фоновые стратегии и распространяемый контент с содержанием человеческого интеллекта» [20]. Проблема эффективности методик выявления социальных ботов имеет и глобальное измерение - выработку общей информационной политики по контролю за дезинформацией и ложным/подозрительным контентом в социальных сетях. Здесь выделяют два аспекта: первый связан с массовым и неконтролируемо увеличивающимся масштабом порождения социальных ботов (например, руководство сети Twitter после слушаний, организованных комитетом по разведке сената США в ноябре 2017 г. пыталось ограничить деятельность бот-сетей: за 4 месяца было заблокировано более 117 тысяч «злонамеренных приложений» и за день заблокировано более 450 тысяч подозрительных аккаунтов). Второй аспект связан с тем, что возможности представителей академического сообщества в выявлении социальных ботов ограничены (они могут опираться лишь на данные, предоставляемые через публичный прикладной программный интерфейс - API) и упираются в противодействие тех институциональных и корпоративных структур, которые заинтересованы в сокрытии используемых ими бот-программ. Поэтому решение проблемы политического влияния в социальных сетях, выявления информационных механизмов мистификации и дезинформации возможно лишь на основе координации усилий заинтересованных сторон (государственных, корпоративных, общественных) [19. P. 21]. Существует и другая точка зрения на перспективы функционирования политических ботов. По мнению С. Вулли и Ф. Ховарда [39], речь должна идти не об уничтожении политических ботов как помех в политической коммуникации: учитывая их растущую популярность и наличие политических агентов, которые обладают достаточным социальным, временным и финансовым капиталом для организации масштабных бот-кампаний, следует говорить о зарождении нового политического феномена - компьютерной пропаганды. Для понимания природы этого явления недостаточно усилий грамотных программистов, необходима новая цифровая социальная наука, которая может синтезировать наработки социально-гуманитарных наук и программирования для изучения причинно-следственных конфигураций сложных сетей, состоящих из множества акторов, артефактов и алгоритмов (кодов) [39. P. 81-82]. Таким образом, анализ работ об использовании социальных ботов в политической коммуникации позволил определить их три основные тематики (типология ботов, использование их в электоральных практиках, методики их выявления), выделить направления функционирования ботов в политической коммуникации, охарактеризовать основные коммуникативные стратегии, реализуемые с их помощью в электоральных практиках, обосновать перспективность комбинированных методик идентификации ботов, объединяющих методы программирования и социальных наук. Для развития социологического знания данная тематика открывает новые перспективы в понимании природы политической коммуникации и трансформации политических агентов в цифровую эпоху.

V V Vasilkova

Saint Petersburg State University

Author for correspondence.
Email: v.vasilkova@spbu.ru
Universitetskaya Nab., 7/9, Saint Petersburg, 199034, Russia

доктор философских наук, профессор кафедры социологии культуры и коммуникации Санкт-Петербургского государственного университета

N I Legostaeva

Saint Petersburg State University

Email: n.legostaeva@spbu.ru
Universitetskaya Nab., 7/9, Saint Petersburg, 199034, Russia

кандидат социологических наук, заместитель директора Центра социологических и интернет-исследований Санкт-Петербургского государственного университета

  • Alymov A.S., Baranyuk V.V., Smirnov O.S. Detektirovanie bot-programm, imitiruyushchikh povedenie lyudey v sotsialnoy seti “VKontakte” [Detecting bot programs that imitate people’s behavior in the social network “VKontakte”]. International Journal of Open Information Technologies. 2016; 4 (8) (In Russ.).
  • Volodenkov S.V. Novye formy politicheskogo upravleniya v kiberprostranstve XXI veka: vyzovy i ugrozy [New forms of political governance in the cyberspace of the 21st century: Challenges and threats]. Izvestiya Saratovskogo Universiteta. 2011; 11 (2) (In Russ.).
  • Il'in A.N. Internet kak alternativa politicheskoy angazhirovannosti SMI [Internet as an alternative to the political media engagement]. Policheskie Issledovaniya. 2012; 4 (In Russ.).
  • Katasev A.S., Kataseva D.V., Kirpichnikov A.P., Evseeva A.O. Neyrosetevaya model identifikatsii botov v sotsialnykh setyakh [Neural network model of bots identification in social networks]. Vestnik Tekhnologicheskogo Universiteta. 2015; 18 (16) (In Russ.).
  • Kotenko I.V., Konovalov A.M., Shorov A.V. Agentno-orientirovannoe modelirovanie bot-setey i mekhanizmov zashchity ot nikh [Agent-based modeling of botnets and mechanisms of protection against them]. Voprosy Zashchity Informatsii. 2011; 3 (In Russ.).
  • Martyanov D.S. Politicheskie boty kak professiya [Political bots as a profession]. Politex. 2016; 12 (1) (In Russ.).
  • Solovey D.M. Osobennosti politicheskoy propagandy v tsifrovoy srede [Features of political propaganda in the digital environment]. Vestnik Finansovogo Universiteta. Serija: Gumanitarnye Nauki. 2018; 1 (In Russ.).
  • Chesnokov V.O. Primenenie algoritma vydeleniya soobshchestv v informatsionnom protivoborstve v sotsialnykh setyakh [Application of the algorithm for selecting communities in the information confrontation in social networks]. Voprosy Kiberbezopasnosti. 2017; 1 (9) (In Russ.).
  • Arnaudo D. Computational propaganda in Brazil: Social bots during elections. Project on Computational Propaganda. 2017: 8.
  • Bessi A., Ferrara E. Social bots distort the 2016 US Presidential Election online discussion. First Monday. 2016: 21 (11).
  • Bolsover G. Computational propaganda in China: An alternative model of a widespread practice. Project on Computational Propaganda. 2017: 4.
  • Bolsover G., Howard P. Chinese computational propaganda: Automation, algorithms and the manipulation of information about Chinese politics on Twitter and Weibo. Information, Communication & Society. doi: 10.1080/1369118X.2018.1476576.
  • Boshmaf Y., Muslukhov I., Beznosov K., Ripeanu M. The socialbot network: When bots socialize for fame and money. Proceedings of the 27th Annual Computer Security Applications Conference. New York; 2011.
  • Boshmaf Y., Muslukhov I., Beznosov K., Ripeanu M. Design and analysis of a social botnet. Computer Networks. 2013; 57 (2).
  • Chu Z., Gianvecchio S., Wang H., Jajodia S. Detecting automation of Twitter accounts: Are you a human, bot, or cyborg? IEEE Transactions on Dependable and Secure Computing. 2012; 9 (6).
  • Ferrara E., Varol O., Davis C., Menczer F., Flammini A. The rise of social bots. Communications of the ACM. 2016; 59 (7).
  • Forelle M.C., Howard P.N., Monroy-Hernandez A., Savage S. Political bots and the manipulation of public opinion in Venezuela. https://arxiv.org/ftp/arxiv/papers/1507/1507.07109.pdf.
  • Gonzales H.M.S., González M.S. Bots as a news service and its emotional connection with audiences. The case of Politibot. The Influence of the Audience in Journalistic Innovation and Participation Management. http://dspace.ceu.es/bitstream/10637/8765/2/Bots_as_HadaSanchez_ MariaSanchez_Doxa_2017.pdf.
  • Gorwa R., Guilbeault D. Unpacking the social media bot: A typology to guide research and policy. https://arxiv.org/pdf/1801.06863.pdf.
  • Grimme C., Preuss M., Adam L., Trautmann H. Social bots: Human-like by means of human control? Big Data. 2017; 5 (4).
  • Howard P.N. Digitizing the social contract: Producing American political culture in the age of new media. Communication Review. 2003; 6 (3).
  • Howard P.N. Pax Technica: How the Internet of Things May Set Us Free or Lock Us up. New Haven-London: Yale University Press; 2015.
  • Howard P.N., Bolsover G., Kollanyi B., Bradshaw S., Neudert L.-M. Junk news and bots during the U.S. Election: What were Michigan voters sharing over Twitter? Working Papers & Data Memos. 2017; 1.
  • Howard P.N., Kollanyi B. Bots, #Strongerin, and #Brexit: Computational propaganda during the UK-EU referendum. Project on Computational Propaganda. 2016; 1.
  • Howard P.N., Woolley S., Calo R. Algorithms, bots, and political communication in the US 2016 election: The challenge of automated political communication for election law and administration. Journal of Information Technology & Politics. 2018; 15 (2).
  • Lyon D. Surveillance, Snowden, and big data: Capacities, consequences, critique. Big Data & Society. 2014; 1 (2).
  • Maréchal N. Automation, algorithms, and politics/when bots tweet: Toward a normative framework for bots on social networking sites. International Journal of Communication. 2016; 10.
  • Metaxas P.T., Mustafaraj E. Social media and the elections. Science. 2012; 338 (6).
  • Napoli P.M. Automated media: An institutional theory perspective on algorithmic media production and consumption. Communication Theory. 2014; 24 (3).
  • Pasquale F. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press; 2015.
  • Ratkiewicz J., Conover M., Meiss M., Gonçalves B., Patil S., Flammini A., Menczer F. Truthy: Mapping the spread of astroturf in microblog streams. Proceedings of the 20th International Conference Companion on World Wide Web. New York; 2011.
  • Schäfer F., Evert S., Heinrich P. Japan’s 2014 General Election: Political bots, right-wing Internet activism, and Prime Minister Shinzō Abe’s hidden nationalist agenda. Big Data. 2017; 5 (4).
  • Shorey S., Howard P.N. Automation, Aalgorithms, and politics/automation, big data and politics: A research review. International Journal of Communication. 2016; 10.
  • Stieglitz S., Brachten F., Ross B., Jung A.-K. Do social bots dream of electric sheep? A categorisation of social media bot accounts. Australasian Conference on Information Systems. Hobart; 2017.
  • Sullivan J. A tale of two microblogs in China. Media, Culture & Society. 2012; 34 (6).
  • Waugh B., Abdinpanah M., Hashemi O., Rahman S.A., Cook D.M. The influence and deception of Twitter: The authenticity of the narrative and slacktivism in the Australian electoral process. Proceedings of the 14th Australian Information Warfare Conference. Perth; 2013.
  • Williams J.A., Miller D.M. Netizens decide 2014? A look at party campaigning online. Japan Decides. London; 2016.
  • Woolley S.C. Automating power: Social bot interference in global politics. First Monday. 2016; 21.
  • Woolley S.C., Howard P.N. Automation, algorithms, and politics/political communication, computational propaganda, and autonomous agent — introduction. International Journal of Communication. 2016; 10.

Views

Abstract - 586

PDF (Russian) - 301

PlumX


Copyright (c) 2019 Vasilkova V.V., Legostaeva N.I.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.