Leveraging AI Technologies in Politics: Navigating Threats and Unveiling Opportunities

Cover Page

Cite item

Full Text

Abstract

Presently, the rapid evolution of digital technologies that profoundly reshape diverse facets of human endeavor stands as a pivotal theme in both scholarly discourse and practical application. Prominent among these advancements are artificial intelligence (AI henceforth) and neural networks, emerging as indispensable instruments within the realm of politics. The pervasive transformation wrought by integrating AI extends across numerous dimensions of political engagement - spanning strategic design of electoral campaigns through efficient governance mechanisms. Artificial intelligence can provide the opportunity to analyze huge amounts of data and is already being actively used in various countries, opening up new perspectives for understanding social dynamics. In this regard, the article analyzes the main risks and potential of introducing artificial intelligence technologies into the political sphere. The purpose of the study is to identify the main threats and opportunities for the use of artificial intelligence technologies in modern Russian politics. The methods of collecting empirical data were: in-depth interviews of experts (32 experts, representatives of the academic community, IT specialists, government officials, as well as experts in the field of implementation and implementation of digital technologies) from 7 regions of the country, a series of focus groups (5 focus groups) among young people (18-35 years old), average age (36-59 years); senior (retirement) age (60 and over). 10 respondents participated in each focus group. According to the results of the study, the main threats and opportunities for the use of artificial intelligence technologies in the political sphere were identified.

Full Text

Введение Стремительное развитие цифровых технологий, которые кардинально меняют различные сферы человеческой деятельности, является одной из наиболее обсуждаемых научных и практических проблем. В частности, искусственный интеллект (далее - ИИ) и нейросети становятся все более актуальными инструментами в политической практике. Сквозные изменения, вызванные применением ИИ, затрагивают все уровни политической деятельности - от разработки стратегий выборов до эффективного управления государственными делами [Ри 2024]. Искусственный интеллект позволяет обрабатывать огромные объемы данных и в настоящее время используется в различных странах мира, открывая новые горизонты для понимания общественных тенденций, трансформации управления обществом и государством [Dunleavy & Margetts 2023]. К примеру, в Китайской Народной Республике в 2016 г. была представлена система City Brain (разработана компанией Alibaba Cloud), которая использует ИИ для управления городскими данными (применяется для оптимизации различных аспектов жизни в городе, от управления транспортом до экстренных служб). В 2017 г. Канада использовала ИИ для анализа публичных консультаций и формирования рекомендаций по реформе избирательной системы. Стратегия была разработана Канадским институтом перспективных исследований (CIFAR) в партнерстве с тремя национальными институтами искусственного интеллекта страны [Выходец 2022]. Таким образом, интеграция технологий создает новые возможности для политических акторов, но одновременно с этим может иметь ряд потенциальных рисков, которые требуют особого внимания и изучения. Например, существуют риски использования ИИ для манипуляции общественным мнением через микротаргетинг и дезинформацию. Генеративные модели ИИ, создающие текст, изображения и видео, способны подрывать доверие к демократическим институтам, усиливая недоверие к СМИ и политическим элитам. Важной также является угроза эрозии социальной сплоченности из- за масштабного распространения контента сомнительной достоверности [Kreps, Kriner 2023]. Теоретические основы исследования Практика демонстрирует, что ИИ может значительно улучшить результативность процесса принятия решений, в том числе государственного управления, и помочь решить многие актуальные политические вопросы. При этом активизация использования ИИ сопровождается рядом угроз, касающихся в том числе безопасности и отсутствия прозрачности в процессе алгоритмического принятия решений [Гуськова, Калимуллин 2020]. Важно отметить, что на данный момент среди специалистов из различных областей знаний нет единого понимания феномена ИИ, что может быть связано также с большим количеством смежным терминов и категорий. В частности, в статье Е.В. Соломонова понятие ИИ представлено так: «Искусственный интеллект - это автономная система (технологическое решение), обладающая способностью к обучению, самообучению и самосовершенствованию, осуществляющая самостоятельный поиск, анализ и обобщение информации, имеющая признаки разумного поведения - возможность ставить и решать интеллектуальные задачи, для которых отсутствует заранее заданный алгоритм решения (высокая вероятность совершения действий, не предусмотренных создателем или программистом изначально), достигая и превышая при этом результаты интеллектуальной деятельности человека вне зависимости от сферы применения» [Соломонов 2023]. Таким образом, понятие искусственного интеллекта раскрывается через его автономность, обучаемость, способности к анализу и обобщению данных, а также возможность проявлять разумное поведение в необычных ситуациях. Также в определении отмечается, что ИИ способен самостоятельно искать необходимую информацию, анализировать ее и обобщать результаты, что делает его эффективным инструментом для решения сложных задач в разных областях. При этом на данный момент нет однозначного ответа о том, в какой степени технология искусственного интеллекта способна генерировать адекватные ответы на открытые вопросы [Pinell 2024]. ИИ можно представить как общую технологию реализации принципов работы машин (компьютерных систем) на основе возможностей их самообучения и генерации готовых решений, похожих на человеческие (фактически копируя когнитивные функции самого человека). В контексте данной работы ИИ будет представлен как инновационная технология, способная анализировать большие объемы данных, прогнозировать политические тренды и общественные настроения, а также помогать в принятии решений, что открывает новые возможности для изменения процессов государственного управления, но также создает угрозы (в том числе в виде манипуляции информацией и нарушения приватности). Следует отметить, что феномен «нейросеть» можно назвать вариантом ИИ, но не каждый ИИ можно называть нейросетью, так как нейросети - это один из методов реализации искусственного интеллекта, но не весь искусственный интеллект. ИИ включает в себя множество других подходов и методов, таких как традиционные алгоритмы машинного обучения, генеративные алгоритмы и т.д. Рассуждая о возможностях применения искусственного интеллекта в политике, многие авторы указывают, что нейросетевые технологии уже сейчас активно используются в политической сфере: анализ данных и социальных медиа, прогнозирование и стратегическое планирование, автоматизация процессов и др. [Изиляева и др. 2024]. В своей статье А.Д. Селиверстова на анализе российского опыта выделяет возможности ИИ исходя из действующих практик использования данной технологии в некоторых государственных структурах и учреждениях. По ее мнению, можно подчеркнуть следующие перспективные сферы его использования: планирование ресурсов, анализ и прогнозирование данных, улучшение обслуживания граждан, выявление мошенничества и коррупции и др. [Селиверстова 2024]. Тем самым использование ИИ должно повысить эффективность и качество предоставления государственных услуг гражданам, а также упростить мониторинг общественного мнения с помощью автоматизации, которая помогает обрабатывать запросы общества [Быков 2020]. Однако использование ИИ также сопряжено с рисками, включая снижение автономии избирателей и возникновение новых форм цифрового авторитаризма. Очевидна необходимость разработки этических стандартов для предотвращения подобных злоупотреблений [Birgit 2020]. Кроме того, влияние ИИ на политическое управление можно анализировать и через призму легитимности. Исследователи выделяют три аспекта: вводные механизмы (учет интересов граждан), процессы принятия решений (прозрачность и эффективность) и результаты (соответствие ожиданиям общества). Таким образом, применение ИИ в политике способно укрепить доверие, если алгоритмы будут прозрачными и инклюзивными, однако недостатки в этих сферах могут усилить демократический дефицит [Starke, Lünich 2020]. В исследовании С.В. Володенкова, С.Н. Федорченко и Н.М. Печенкина на основе кластеризации экспертных мнений определены ключевые социально- политические риски, угрозы и вызовы, включая утрату приватности из- за автоматизированного сбора и анализа Big Data; алгоритмическое воздействие на массовое сознание через персонализацию контента с использованием ИИ; автоматизированную пропаганду с помощью «умных» цифровых аккаунтов для манипулятивных кампаний и дезинформации; конкуренцию транснациональных технологических компаний с государствами благодаря собственным ИИ-ресурсам; теневизацию алгоритмического управления из- за предвзятости и непрозрачности решений нейросетей; формирование цифровых автократий, основанных на автоматизированном контроле социальных коммуникаций через технологии ИИ и др. [Володенков и др. 2024]. В своей работе С.В. Володенков отмечает, что «деятельность практически любого ИИ-агента, обученного в недружественных странах (которые в основном являются идеологическими центрами и обладают собственными мировоззренческими и ценностно- смысловыми системами, чуждыми российской традиционной идеологии и мировоззрению), может рассматриваться как существенная ценностно- смысловая угроза в случае осуществления таким ИИ-агентом информационно- коммуникационной активности в российском цифровом пространстве» [Володенков 2024]. Тем самым автор стремится показать формирующуюся угрозу: большинство чат- ботов с генеративным искусственным интеллектом создано на базе информации недружественных стран, что в свою очередь опасно для России как государства, поскольку ответы таких чатов влияют на общественное сознание, в том числе посредством фейковой информации [Агеев и др. 2022]. Таким образом, ИИ становится стратегическим инструментом в международной политике, усиливая влияние как государств, так и корпораций. Некоторые исследования подчеркивают, что крупные технологические компании обладают транснациональным влиянием, которое может конкурировать с властью правительств. Все представленные примеры, показывают, насколько важно разрабатывать законодательство или предпринимать правовые методы регулирования ИИ, так как они могут создавать риски и угрозы для безопасности населения и всего государства. Управление технологиями ИИ требует новых подходов, так как их трансграничный характер и сложность работы затрудняют традиционные формы регулирования [Turk 2024]. Требуют рассмотрения вопросы создания международных стандартов, внедрения этических принципов и необходимости сотрудничества между государствами для управления последствиями использования ИИ в политике [Clauberg 2020]. Применение искусственного интеллекта в политике открывает значительные возможности для оптимизации процессов, анализа данных и прогнозирования, однако содержит в себе потенциальные угрозы. Неконтролируемое использование ИИ может привести к манипуляциям общественным мнением, подавлению свободы информации, усилению социального неравенства и даже к ограничению демократических процессов. Поэтому необходимы дальнейшие исследования и обсуждения в области регулирования использования ИИ и нейросетей в политике для минимизации рисков и негативных последствий внедрения данных технологий. Методы и материалы исследования С целью определения основных угроз и возможностей применения технологий искусственного интеллекта в современной российской политике в августесентябре 2024 г. были проведены: 1. Интервью с 32 экспертами (представители академического сообщества, специалисты в области IT-технологий, сотрудники органов власти, а также эксперты в области реализации и внедрения цифровых технологий) из 7 регионов страны: Москва, Санкт- Петербург, Костромская область, Волгоградская область, Алтайский край, Краснодарский край, Ярославская область. Гайд для проведения интервью состоял из открытых вопросов по следующим направлениям: ключевые характеристики ИИ; особенности работы ИИ с пользователями; результаты выдачи и ограничения ИИ; угрозы и возможности внедрения и использования ИИ; ИИ в контексте политики современной России; особенности регулирования ИИ в России; перспективы развития ИИ. 2. 5 фокус- групп (в каждой - по 10 респондентов). Три фокус группы были разделены по возрастному критерию: молодежь: 18-35 лет; средний возраст: 36-59 лет; старший (пенсионный) возраст: 60 лет и более. Еще 2 фокус- группы всех возрастов репрезентативных по полу и возрасту. Гайд для проведения фокус- групп состоял из открытых вопросов по следующим категориям: ключевые характеристики ИИ; особенности работы ИИ с пользователями; результаты выдачи и ограничения ИИ; угрозы и возможности внедрения и использования ИИ; ИИ в контексте политики современной России; перспективы развития ИИ. Восприятие технологий искусственного интеллекта в политике Результаты исследования демонстрируют, что с помощью технологий ИИ формируются более точные и адаптированные к аудитории политические сообщения. Алгоритмы могут проанализировать поведение пользователей в социальных сетях, их реакции на различные сообщения, позволяя уделять больше внимания наиболее восприимчивым аудиториям. Вместе с тем эксперты предупреждают, что такая персонализация пользователей потребует осторожного подхода, так как может повлечь за собой проблемы, связанные с манипуляцией сознанием. Значительная часть участников фокус-групп (особенно среди молодежи) отметила, что характерной особенностью применения ИИ в политике является использование нейросетей для симуляции и предсказания политических процессов и событий. Эти модели могут быть нацелены на оценку влияния конкретных решений или действий, что позволяет заранее подготовиться к возможным вызовам. На уровне государственного управления ИИ может оптимизировать процессы принятия решений, обеспечивая доступ к актуальной информации и предоставляя полезные аналитические данные, повышая качество управления и расширяя взаимодействие с гражданами. В то же время, по мнению участников фокус групп, внедрение ИИ в политику ставит ряд этических вопросов. Отсутствие прозрачности в алгоритмах принятия решений порождает недоверие граждан к политикам и институтам. Непредсказуемость и неопределенность реакций ИИ могут привести к нежелательным социальным последствиям, где общественное мнение и доверие могут оказаться под угрозой. В такой ситуации важно, чтобы разработки ИИ были четко регламентированы, включая право граждан знать, как и на каких основаниях принимаются решения, которые затрагивают их интересы («Эту работу, писанину и выступления должны делать они [политики] или их сотрудники, а не компьютер» - цит., муж., средние, респондент фокус-г руппы). При этом демонстрируется запрос не только на само регулирование, но и общественную дискуссию по ключевым проблемам в данной сфере. Возможности использования искусственного интеллекта в общественно- политическом пространстве По мнению экспертов, современные политические процессы уже включают в себя инструменты искусственного интеллекта. Так, часть экспертов считает, что использование нейросетей для анализа данных о предпочтениях и интересах граждан стало обычной практикой. Главная возможность, которую дают системы, работающие на основе ИИ, - быстрая обработка информации и выделение ключевых идей (трендов), что делает их полезными в условиях динамичных политических реалий. Субъекты (в том числе в политике), использующие такие технологии, могут достигать более высокой степени персонализации контента («Самый главный плюс ИИ - это то, что он все делает быстрее: считает, читает, пишет быстрее, чем люди, и это можно использовать как возможность в будущем» - цит., жен., преподаватель, эксперт). Кроме того, ИИ помогает автоматизировать взаимодействие с гражданами (избирателями), в том числе посредством чат- ботов, которые отвечают на запросы и предлагают необходимую информацию. Тем самым не только сокращаются затраты на человеческие ресурсы, но и создается ощущение индивидуального подхода. Несомненным преимуществом ИИ и нейросетей, по мнению участников фокус- групп, является способность генерации новых идей и прогнозирование результатов. На основе работы с большими данными, зачастую непосильными для осмысления одним или несколькими людьми, искусственный интеллект способен генерировать новые идеи, на основе которых человек сможет трансформировать современное общество. При этом он способен прогнозировать дальнейшее развитие событий, предупреждая человека при принятии того или иного решения о потенциальных рисках («Они [нейросети] уже сейчас подсказывают и даже предсказывают, что мне делать дальше. Это помогает спланировать свою работу» - цит., муж., молодежь, респондент фокус- группы). Еще одной возможностью внедрения ИИ в политику может являться потенциальное укрепление национальной безопасности и кибербезопасности. Системы искусственного интеллекта применяются в оборонных целях и в разработке систем противодействия кибератакам. По мнению экспертов и респондентов, создание независимых национальных систем искусственного интеллекта укрепит цифровую инфраструктуру и создаст условия для развития гражданских технологий в этой области. При этом большинство экспертов отмечало в первую очередь успешность в этой сфере именно коммерческих, а не государственных корпораций. Еще одним немаловажным преимуществом использования технологий ИИ в политике является формирование дополнительных условий для развития гражданского участия: участники фокус- групп и эксперты сошлись во мнении, что с помощью ИИ создаются (будут создаваться) платформы для более активного взаимодействия между гражданами и государством посредством разработки систем обратной связи, онлайн- голосований, а также платформ для коллективного обсуждения законопроектов и инициатив. («Я думаю, ИИ можно будет использовать для проверки и упрощения процедуры ДЭГ или для онлайн- петиций» - цит., муж., средние, респондент фокус- группы). В целом эксперты и участники фокус- групп сошлись во мнении, что инструменты, способствующие внедрению ИИ в политические процессы, должны совершенствоваться вместе с развитием их функциональности. Поскольку политические процессы и решения базируются в основном на результатах анализа данных, важно учитывать мнения всех заинтересованных сторон, включая экспертов в области технологий, правозащитников и общественности. Угрозы использования искусственного интеллекта в общественно- политическом пространстве Несмотря на очевидные преимущества, необходимо учитывать и риски, связанные с применением ИИ в политике. Среди них следует отметить чрезмерную зависимость от алгоритмов, которая может привести к ошибкам в оценках и интерпретациях данных. Алгоритмы могут непреднамеренно усиливать существующие предвзятости, основываясь на недостоверных или неполных данных, в том числе формулируя недостоверные прогнозы. Государству и обществу также крайне важно рассмотреть вопросы безопасности данных при использовании ИИ. С неизбежным ростом цифровых атак риск утечек информации увеличивается. Технологии ИИ, которые собирают и обрабатывают обширные массивы данных о своих пользователях, становятся привлекательными целями для киберпреступников. Современные алгоритмы ИИ могут создавать и распространять фейковые новости с высокой скоростью и точностью. Нейросети генерируют текст, изображения и даже видео, которые невозможно отличить от реальных (deepfake). С помощью специальных платформ можно запускать общественные кампании, которые ориентированы на определенные социальные группы, что не только подрывает традиционные механизмы проверки информации, но и ставит под сомнение саму идею общественного диалога. Кроме того, нейросети создают и поддерживают определенный дискурс, который может быть использован для манипулирования общественным мнением и конструирования новой реальности. С ростом влияния этих технологий множатся угрозы формирования искусственной среды, в которых манипуляторы способны направлять коллективные представления и восприятие в нужное русло. Это актуализирует вопросы о подлинности и достоверности создаваемой информации и увеличивает риски искажения представлений о действительности. Таким образом, ИИ оказывает значительное влияние на национальную безопасность, включая возможности киберзащиты и предсказания угроз. Однако усиление зависимости от ИИ создает риски, связанные с уязвимостью систем и потенциальным использованием технологий для атак. Также одной из наиболее острых угроз является проблема прозрачности алгоритмов, на которых основывается функционал ИИ. Соответствующие технологии часто воспринимаются как «черные ящики», внутренние процессы которых непонятны обычным пользователям. По мнению экспертов, отсутствие понимания того, каким образом принимаются решения, вызывает озабоченность, особенно когда речь идет о политических процессах. Механизмы обработки информации могут порождать предвзятости, основанные на искаженных данных или неправильно настроенных алгоритмах, что в конечном итоге может отразиться на политических процессах и общественном мнении. Еще одной угрозой использования технологий ИИ в политике является проблема зависимости от иностранных решений в сфере ИИ (имеет значение для многих технологически зависимых государств). В частности, значительная часть технологий ИИ в России основана и спроектирована на базе иностранных технологий. Санкции могут затруднить развитие внутреннего производства и снизить международную конкурентоспособность, а также сделать отечественных производителей зависимыми («…как понимаю какие- то софты и первоисточники цифровых технологий находятся и разработаны не в нашей стране. Это не очень приятно, вдруг они могут на нас повлиять» - цит., жен., средние, респондент фокус- группы). При этом большинство участников фокус-групп отметили угрозу потери необходимости человеческого труда в отдельных сферах. По мнению респондентов, искусственный интеллект способен выполнять простейшие задачи некоторых реальных профессий, что формирует угрозу для текущей занятости и необходимости использования ресурсов человека в производстве товаров и услуг. Более того, отмечается, что он способен это делать быстрее и качественнее среднестатистического работника, тем самым стимулироваться внедрение искусственного интеллекта взамен человеческого. При этом обозначенная угроза может породить проблему упрощения процесса человеческого мышления. Здесь отмечается риск чрезмерного использования искусственного интеллекта при формировании новых знаний самим человеком. Респонденты опасаются, что человек просто откажется от критического осмысления поступающей информации и будет использовать выдачу искусственного интеллекта как итоговый результат своей собственной мыслительной деятельности. Таким образом, Российскому государству необходимы четкие стандарты и правила, которые регулировали бы использование ИИ в политической сфере. Прозрачность алгоритмов и обработка данных должны стать ключевыми аспектами регулирования. Унифицированные протоколы, позволяющие оценивать и отслеживать влияние ИИ на политические процессы, помогут создать необходимые гарантии. Общественное обсуждение и открытость в отношении применения технологий позволит не только снизить уровень недоверия со стороны граждан, но и повысить общий уровень грамотности в вопросах ИТ-этики. В конечном итоге успех внедрения технологий ИИ в политические процессы напрямую зависит от способности общества и государства сбалансированно подходить к их регулированию. Только выстраивая системный подход к вопросам прозрачности и этики, можно обеспечить работу ИИ во благо обществу. Постепенное формирование этических стандартов для применения технологий в политике станет необходимым условием для функционирования здорового демократического пространства. Продуманные и адекватные меры регулирования позволят максимально использовать возможности ИИ, минимизируя негативные последствия для граждан. Потенциал развития применения технологий ИИ в политике Значительная часть опрошенных считает, что значимых изменений в политике (и в других сферах) в ближайшие годы из- за технологий ИИ не предвидится. В то же время часть экспертов отмечала, что будущие политические стратегии будут зависеть от того, смогут ли государственные органы и организации выработать оптимальные законодательные меры по обеспечению прозрачности и защите прав граждан в сфере развития ИИ. Не менее важным аспектом использования ИИ в политике является влияние технологий на политическую коммуникацию. Виртуальные помощники и чат- боты уже сейчас находят все большее применение как во взаимодействии государства с гражданами, так и в процессах автоматизации некоторых задач. В будущем эти технологии станут более совершенными и смогут сделать политическую дискуссию более доступной и простой. Однако, по мнению экспертов, может появиться новая угроза: последствия deepfake технологий и дезинформации способны подорвать доверие к традиционным медиа и институтам власти. При этом часть экспертов считает, что если не определить законодательные рамки использования ИИ, то может сформироваться новая сегрегация. Данное предположение связано с тем, что алгоритмы часто обучаются на существующих данных, что может усилить предвзятости и даже создать неравенство в доступе к политической информации. В целом можно подчеркнуть, что развитие искусственного интеллекта характеризуется следующими прогнозными сценариями: 1. Дальнейшее развитие ИИ и нейросетей, создание полноценных систем искусственного интеллекта и их более масштабная адаптация в общественную жизнь. В этом сценарии эксперты склонны считать, что точка невозврата в развитии искусственного интеллекта пройдена и невозможно вернуть общество к состоянию до нейросетей и искусственного интеллекта. Некоторые хотя и с долей иронии, но все же допускают негативные сценарии развития, свойственные научной фантастике конца XX - начала XXI в. (например, фильмы «Терминатор» и «Особое мнение»). 2. Нейросети достигли точки невозврата, но при этом возможности технологии исчерпаны. Эксперты аргументируют данную позицию тем, что создание более сложных систем, способных полностью имитировать человеческое мышление, попросту невозможно. 3. Нейросети не прошли точки невозврата, и сложно предположить, как искусственный интеллект будет развиваться в ближайшем будущем. Придерживаясь данной точки зрения, эксперты склонны отмечать, что совершенствование цифровых технологий будет отражаться и на развитии ИИ. Видение будущего является лишь представлением человека реального времени с его текущими возможностями и технологическим развитием, которые не способны предположить весь потенциал нового феномена. Таким образом, можно предположить, что успешное внедрение технологий в политические процессы будет зависеть от способности регуляторов и самих политиков учитывать новые реалии и адаптироваться к ним. Будущее применение ИИ в политике, таким образом, представляет собой сложную мозаичную конструкцию. Она требует многослойного анализа, с точки зрения этики, технологий, безопасности и общественного доверия. Важно превратить угрозы в возможности для создания более открытой, инклюзивной и отзывчивой политической среды, что потенциально может привести к улучшению качества жизни и более устойчивым инклюзивным практикам. Заключение Применение технологий искусственного интеллекта в политике представляет собой многогранный и сложный процесс, который открывает как новые возможности, так и серьезные угрозы. В условиях стремительного технологического прогресса ИИ и нейросети становятся неотъемлемой частью политической сферы, изменяя привычные механизмы взаимодействия политиков и граждан, а также трансформируя способы формирования и анализа общественного мнения. Эти изменения, безусловно, могут привести как к повышению эффективности управленческих решений, так и к серьезным рискам. В результате можно выделить следующие позитивные возможности, которые формируют технологии ИИ в общественно- политической жизни: y повышение эффективности государственного управления: использование ИИ может значительно улучшить работу государственных органов за счет автоматизации рутинных процессов, анализа больших данных и принятия более адекватных решений; y обеспечение информационной безопасности: искусственный интеллект способен анализировать большие объемы информации и выявлять потенциальные угрозы национальной безопасности; y оптимизация трудовой деятельности: ИИ помогает в решении рутинных задач и способствует автоматизации постоянных рабочих процессов; y улучшение качества обработки информации: внедрение ИИ способствует более быстрому анализу больших данных, а также позволяет их оперативно структурировать и сортировать по блокам; y генерация новых идей и предложений: технологии ИИ при правильном использовании могут подсказать человеку, как правильно решать сложные вопросы и проблемы. Проведенные исследования также позволили выявить негативные стороны и угрозы, которые формируют технологии ИИ в общественно- политической жизни: y снижение востребованности человеческого труда: искусственный интеллект способен выполнять задачи некоторых реальных профессий, что формирует угрозу для текущей занятости и снижает потребность в человеческих ресурсах; y упрощение процесса человеческого мышления: риск чрезмерного использования искусственного интеллекта при формировании новых знаний человеком; y безопасность данных граждан: результаты общения с ИИ и нейросетями могут использоваться для формирования портрета пользователя и дальнейшего его использования, в том числе третьими лицами; y манипуляции общественным мнением: ИИ может быть обучен на искаженной информации для влияния на сознание граждан; y сложность технической реализации собственных (национальных) технологий искусственного интеллекта: несмотря на то, что технологии искусственного интеллекта разрабатываются и используются во многих развитых странах мира, они часто основываются на готовых решениях конкретных разработчиков, преуспевших в создании языковых моделей. Перспективы применения технологий ИИ в политике также вызывают определенные опасения. С одной стороны, мы можем ожидать дальнейшего развития и интеграции ИИ в политические процессы, что приведет к более эффективному управлению и более точному учету интересов граждан. С другой стороны, необходимо быть готовыми к новым вызовам, связанным с этическими и правовыми аспектами использования ИИ. Важно, чтобы общество, политики и ученые работали вместе над созданием безопасной и этичной среды для применения технологий ИИ в политике. Обеспечение справедливой и открытой политической среды должно стать приоритетом для всех заинтересованных сторон. В противном случае возможности, открываемые ИИ, могут обернуться угрозами для всех участников политического процесса.
×

About the authors

Alexander V. Sokolov

P.G. Demidov Yaroslavl State University

Author for correspondence.
Email: alex8119@mail.ru
ORCID iD: 0000-0002-7325-8374

Doctor of Political Sciences, Docent, Head of Socio-Political Theories Department

Yaroslavl, Russian Federation

Alexander A. Frolov

P.G. Demidov Yaroslavl State University

Email: a.a.froloff@gmail.com
ORCID iD: 0000-0001-8775-016X

Candidate of Political Sciences, Associate Professor of the Department of Socio-Political Theories

Yaroslavl, Russian Federation

Papik A. Babajanyan

P.G. Demidov Yaroslavl State University

Email: babajanyanpapik@yandex.ru
ORCID iD: 0000-0003-2828-5581

research intern

Yaroslavl, Russian Federation

References

  1. Ageev, A.I., Zolotareva, O.A., & Zolotarev, V.A. (2022). Russia in the global world of artificial intelligence: assessment by world ratings. Economic strategies, (2), 20–31. (In Russian). http://doi.org/10.33917/es-2.182.2022.20-31; EDN: QAYTDY
  2. Birgit, S. (2020). Artificial Intelligence and Democratic Politics. Political Insight, 11(1), 32–35. http://doi.org/10.1177/2041905820911746; EDN: ISDTMB
  3. Bykov, I.A. (2020). Artificial intelligence as a source of political judgments. Journal of Political Research, 4(2), 23–33. (In Russian). http://doi.org/10.12737/2587-6295-2020-23-33; EDN: FCGCZO
  4. Clauberg, R. (2020). Cyber-­physical systems and artificial intelligence: chances and threats to modern economies. World Civilizations, 5 (3–4), 107–115. EDN: GTWIMJ
  5. Dunleavy, P., Margetts, H. (2023). Data science, artificial intelligence and the third wave of digital era governance. Public Policy and Administration, 40(2), 185–214. https://doi.org/10.1177/09520767231198737; EDN: MLOOYR
  6. Guskova, A.B., & Kalimullin, N.R. (2020). Modern threats to society with the introduction of artificial intelligence. Actual problems of law and the state in the XXI century, 12(1), 275–281. (In Russian). EDN: PDSIFC
  7. Izilyaeva, L.O., Vasiliev, Ya.K., Mirokiyants, K.S., & Yasavieva, A.I. (2024). Opportunities and risks of using artificial intelligence in the field of political relations of the Russian Federation. Economics and Management: scientific and practical journal, (1), 136–139. (In Russian). http://doi.org/10.34773/EU.2024.1.24; EDN: CZSMPT
  8. Kreps, S., & Kriner, D. (2023). How AI Threatens Democracy. Journal of Democracy, 34(4), 122–131. http://doi.org/10.1353/jod.2023.a907693; EDN: LXKFNX
  9. Pinell, P. (2024). Does Artificial Intelligence Speak Our Language?: A Gadamerian Assessment of Generative Language Models. Political Research Quarterly, 77(3), 713–728. https://doi.org/10.1177/10659129241243038; EDN: FIJAIE
  10. Ri, M.A. (2024). The evolution of artificial intelligence — real and hypothetical social threats. Sociology and Law, 16(3), 380–390. (In Russian). http://doi.org/10.35854/2219-6242-2024-3-380-390; EDN: LHXCHI
  11. Seliverstova, A.D. (2024). Opportunities and risks, ethical problems of using artificial intelligence in public administration. Humanities, socio-­economic and social sciences, 3, 56–60. (In Russian). http://doi.org/10.23672/SAE.2024.88.31.023; EDN: PWECRW
  12. Solomonov, E.V. (2023). The concept and features of artificial intelligence. Bulletin of Omsk University. Series: Law, 4(4), 57–65. (In Russian). http://doi.org/10.24147/1990-5173.2023.20(4).57-65; EDN: OAEOBP
  13. Starke, C, & Lünich, M. (2020). Artificial intelligence for political decision-­making in the European Union: Effects on citizens’ perceptions of input, throughput, and output legitimacy. Data & Policy, 2(16), 917–926. http://doi.org/10.1017/dap.2020.19; EDN: PPKCGD
  14. Turk, Ž. (2024). Regulating artificial intelligence: A technology-­independent approach. European View, 23(1), 87–93. https://doi.org/10.1177/17816858241242890; EDN: APMQML
  15. Volodenkov, S.V. (2024). Neural network algorithms in the actual processes of transformation of traditional worldview and ideological systems. Contours of global transformations: politics, economics, law, 17(2), 6–30. (In Russian). http://doi.org/10.31249/kgt/2024.02.01; EDN: BCFLDQ
  16. Volodenkov, S.V., Fedorchenko, S.N., & Pechenkin, N.M. (2024). Risks, threats and challenges of the introduction of artificial intelligence and neural network algorithms into the modern system of socio-­political communications: based on the materials of an expert study. Bulletin of the Peoples’ Friendship University of Russia. Series: Political Science, 26(2), 406–424. (In Russian). http://doi.org/10.22363/2313-1438-2024-26-2-406-424; EDN: LWSYCV
  17. Vykhodets, R.S. (2022). Strategy of the USA and Canada in the field of artificial intelligence. USA and Canada: economics, politics, culture, (7), 110–122. (In Russian). http://doi.org/10.31857/S2686673022070094; EDN: GTLHJS

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Sokolov A.V., Frolov A.A., Babajanyan P.A.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.