The Impact of AI Attitudes on Detecting AI-Generated Political Content

Cover Page

Cite item

Full Text

Abstract

The rise of generative artificial intelligence (AI) raises critical questions about users’ ability to distinguish AI-generated content from human-generated content, particularly in the political domain. This study investigates the relationship between subjective attitudes towards AI and the accuracy of detecting AI-generated political content. In an experiment involving political science students (n = 60), participants were asked to identify definitions of “political values” generated by the ChatGPT model and to assess their degree of ideological bias. The results revealed that, on average, only about half of the participants correctly identified the artificial origin of the definitions. However, the group of “optimists”, who hold a positive view of AI development, demonstrated significantly higher detection accuracy compared to the “neutral” group. Paradoxically, it was the “neutral” respondents who were significantly more likely to rate AI-generated content as completely objective and devoid of ideological bias. This suggests that a neutral, rather than a skeptical, stance towards AI may create a blind spot for potential ideological influence, as such content does not undergo sufficient critical reflection. The study contributes to understanding how user attitudes mediate the perception of political content in the age of generative AI.

Full Text

Введение

Развитие технологий искусственного интеллекта создает новые вызовы и риски для социальных систем, в том числе в вопросах когнитивной деградации общества из-за снижения количества информационных задач. Алгоритмы ИИ дают не только нейтральные, но и оценочные ответы на запросы, при этом сгенерированные факты могут искажаться или вовсе исчезать. Поскольку сбор и обработку данных осуществляет алгоритм, не обладающий собственным самосознанием, многие пользователи полагают, что имеют дело с непредвзятым источником информации (Беляков, Максименко, 2023). Согласно данным ВИЦОМ 63 % россиян пользуются технологиями ИИ, причем 54 % опрошенных позитивно воспринимают ИИ, прежде всего как помощника, который облегчает решение повседневно-бытовых задач[1]. Это формирует доверительное отношение у отдельного индивида к искусственному интеллекту как к непредвзятому источнику информации[2].

Популярность технологий ИИ и усиление их общественной и политической роли нашло отражение в научном дискурсе. Ученые рассматривают различные аспекты влияния указанных технологий, выстраивая футурологические прогнозы последующих общественных изменений (Petukhov et al., 2024), отмечая, что если ИИ будет и далее совершенствоваться, он сможет развить собственные языки, математические и физические концепции, причем людям будет очень сложно постичь знания, полученные с помощью этих инструментов (Nicolay, 2025, p. 120). Также есть мнение о наличии значимого барьера в сфере развития технологий ИИ, существуют серьезные математические основания полагать, что сложившиеся архитектуры имеют ограничения (Ben-David et.al., 2019).

Использование технологий ИИ в политических процессах изучали как русскоязычные авторы (Быков, 2020; Володенков и др., 2024, 2023; Каминченко, Петухов, 2024 и др.), так и зарубежные (Darius, Römmele, 2023; Koster, 2022; Peters, 2022; Rozado, 2023 et al.).

Немецкие ученые Института машинного обучения и искусственного интеллекта имени Ламарра попытались выявить, какие политические взгляды в большей степени выражает ChatGPT. Использовался тест на определение структуры личности Big Five и психологический тест MBTI (Rutinowski et al., 2024)[3].

В некоторых работах отмечается, что алгоритмы ИИ могут формировать предвзятый контент по отношению к политическим ориентациям, аналогично тому, как в случае генерирования контента, в котором встречаются, например, гендерные предубеждения (Peters, 2022). Российский исследователь И.А. Быков задается вопросом, насколько граждане, бюрократия, элиты и политики могут доверять политическим суждениям, генерируемым с помощью технологий ИИ (2020, с. 24). Интересное направление исследований в рамках изучаемой темы – возможности и угрозы в области государственного управления, в частности в сфере автоматизации административных процессов. Например, С. Шрёдер пишет о том, что веб-приложения искусственного интеллекта, генерирующие текстовый контент, способны улучшить работу органов государственной власти. Вместе с тем он отмечает, что пока неизвестно, возможно ли адаптировать технологии ИИ к существующей правовой системе или же саму правовую систему с минимальными рисками можно адаптировать к все более изменяющимся и совершенствующимся технологиям (Schröder, 2025, p. 245). На любопытный момент указывает Е.В. Бучнев (2022): как государство (прежде всего в его институциональном измерении) операционализирует само понятие «искусственный интеллект», какое место ИИ занимает в формировании политики цифрового суверенитета.

Изучение роли современных технологий ИИ как организационного механизма в сфере общественной и политической коммуникации – востребованное научно-исследовательское направление. В качестве гипотетического потенциала от внедрения ИИ для социума С.Н. Федорченко (2022, с. 54) называет «создание нового типа цифровой демократии, когда политический режим будет учитывать голос каждого человека».

Коллективом авторов из Германии выделено три измерения публичной коммуникации с точки зрения воздействия на нее технологий ИИ. Первое – измерение медиации (die Dimension der Vermittlung), которое рассматривает, например, возможности автоматизированной коммуникации в процессах ИИ и связанные с этим масштабируемость, и подход, ориентированный на целевую группу. Второе – измерение индивидуального позиционирования (die Dimension der individuellen Disposition), которое рассматривает мотивационные ресурсы дискурса и влияние на них ИИ. Третье – измерение обсуждения на макроуровне (die Dimension der Deliberation auf Makrobene), которое охватывает вызовы и возможности, связанные с растущей интеграцией процессов ИИ в публичную коммуникацию в контексте фундаментальных концепций, ценностей и норм делиберативной демократии (Schäfer et.al., 2023, p. 200).

Несмотря на растущий интерес к изучению общественной и политической роли ИИ, в обозначенной предметной области написано относительно немного научных работ. Для специалистов по формированию общественного мнения остаются актуальными ответы на вопросы: «Какова специфика контента генерируемого ИИ? Отражены ли в нем элементы той или иной политической идеологии? Какое влияние он оказывает на формирование и изменение политического сознания индивида, групп и общества?».

В данном исследовании изучаются особенности восприятия политического контента, генерируемого популярным веб-приложением ИИ – ChatGPT, выявляются связи между отношением к ИИ, с одной стороны, и оценкой природы происхождения политического текста и степени его возможной идеологизированности – с другой.

Материалы и методы

Для достижения заявленной цели разработан экспериментальный тест «Политические ценности» (важно, чтобы в теме теоретически могли быть расставлены те или иные политико-аксиологические акценты). Тестирование проведено в апреле 2025 г. среди студентов бакалавриата политологии 1–4 курсов, проходящих обучение в Институте международных отношений и мировой истории Нижегородского государственного университета им. Н.И. Лобачевского (ИМОМИ ННГУ). Выбор обусловлен тем, что участники должны быть готовы установить наличие либо отсутствие в содержании текстов ценностных акцентов. Студенты политологического направления, начиная с первого курса, соприкасаются с обозначенной проблематикой.

Объем выборки – 60 человек. Учитывая, что цель работы – это не индустриальный опрос, а осуществление пробного экспериментального тестирования небольшой группы людей, которые активно погружены в политологическую тематику, указанный объем выборки вполне достаточен для реализации поставленных задач.

В исследовании использованы прикладные методы: анкетирование, шкалирование, статистический и сравнительный анализ, построение таблиц сопряженности.

Разработана специальная анкета из двух частей. В первой части представлены общие вопросы, где участников просили указать номер курса, пол, отношение к технологиям ИИ (оптимистичное / нейтральное / пессимистичное) и частоту их использования (всегда / очень часто / часто / редко / очень редко / никогда). Вторая часть – табличная матрица, где по строчкам приведено семь определений понятия «политические ценности», а по столбцам – участники пилотного эксперимента отвечают на ряд вопросов, выполняют задания, в том числе с использованием шкалирования.

Подробное описание этапов, хода и деталей эксперимента уже было представлено в одной из работ (Каминченко, 2025). Не будем останавливаться на структуре эксперимента, но отметим, что в нем использованы дефиниции ряда российских авторов (Богдан, 2014, с. 24; Зимин, 2012, с. 136; Селезнева, 2019, с. 178; Селезнева, Антонов, 2020, с. 228) и определения, сгенерированные ChatGPT c начала апреля 2025 г.[4]

Результаты и обсуждение

Из 60 участников экспериментального тестирования 50 % составляют мужчины, 48 % – женщины (в одном из анкетных бланков информация о поле не указана). Говоря о своем отношении к развитию современных технологий ИИ, ровно половина участников заявила о нейтральности, 47 % смотрят на ИИ оптимистично, 3 % не ответили. Любопытно, что никто не высказал пессимистичного взгляда на развитие ИИ.

Применительно к результатам заполнения второй части бланка тестирования нас интересуют количественные данные, связанные с определениями термина «политические ценности», сгенерированными ChatGPT, – какой процент участников исследования точно указали эти дефиниции как сформированные при помощи ИИ. В случае со шкальными оценками степени идеологизированности использовались средние арифметические и медианные значения (вторые, на наш взгляд, более показательны с точки зрения поиска обшей тенденции). Статистические результаты отражены в табл. 1.

Таблица 1
Статистические показатели частоты ответов участников эксперимента на вопросы о происхождении определений термина «политические ценности» и медианных значений степени идеологизации

Определения понятия «политические ценности», сгенерированные при помощи ИИ

Участники тестирования, ответившие, что определение сгенерировано при помощи ИИ, %

Среднее арифметическое и медианное значения степени идеологизированности содержания определения по шкале от 0 до 5

Определение 1

53

1,7/1

Определение 2

43

2,2/2

Определение 3

42

2,2/2

Определение 4

63

1,85/2

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 1
Statistical indicators of the frequency of responses of the experiment participants to questions about the origin of the definitions of the term Political Values and the median values of the degree of ideologization

AI-Generated definitions of Political Values

Test participants who responded that the definition was generated using AI, %

The mean and median values of the degree of ideological content of the definition on a scale from 0 to 5

Definition 1

53

1.7/1

Definition 2

43

2.2/2

Definition 3

42

2.2/2

Definition 4

63

1.85/2

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

Как показывают данные табл. 1, определение 4 чаще остальных называлось участниками как сгенерированное посредством ИИ (63 %), далее идет определение 1 (53 %), еще реже были названы определения 3 и 2 (42 и 43 % соответственно). Полагаем, что общие показатели в 40–50 % в данном случае можно обозначить как относительно небольшие с точки зрения определения природы дефиниций (разумеется, подобная шкала оценки значений носит условный характер). Иными словами, в двух из четырех случаев у половины участников эксперимента возникли трудности с установлением природы происхождения определения термина «политические ценности» (в случае с еще одним определением подобные трудности возникли у 47 % участников тестирования).

Согласно табл. 1 медианный показатель степени идеологизированности большинства дефиниций равен двум (определения 2, 3 и 4), а в одном случае – единице (определение 1). Это свидетельствует, что студенты политологического направления оценивают степень идеологизированности, представленную в текстах определений от ИИ, как умеренно низкую, что по сути опровергает идею о наличии явных «политических предпочтений» в контенте ИИ.

Для выполнения поставленных задач были построены таблицы сопряженности. В основе табл. 2 следующие вопросы: 1) отношение участников тестирования к развитию современных технологий ИИ (респонденты разделились практически поровну – «оптимисты» и «нейтральные»); 2) выбор конкретного определения как сгенерированного ИИ. В первом вопросе нас интересуют данные ответов только «оптимистов» и «нейтральных» (абсолютное большинство всех участников эксперимента), а во втором – только положительные (верные) ответы о том, что конкретная дефиниция сгенерирована ИИ. В табл. 3 также отобразим два вопроса: 1) отношение участников тестирования к развитию современных технологий ИИ (снова интересуют группы «оптимистов» и «нейтральных»); 2) оценку степени идеологизированности содержания конкретной дефиниции.

Согласно данным табл. 2 в случае с тремя дефинициями из четырех доля «оптимистов», точно указавших на «искусственную» природу текста определения (сгенерированного ИИ), стабильно превышает аналогичную долю участников, нейтрально настроенных по отношению к развитию ИИ. Исключение составляет случай с текстом определения 1. Любопытно, что только в трех случаях процентный показатель от общего числа «оптимистов» и «нейтральных» превышает 50 % (в случае с определениями 1 и 4).

Таблица 2
Отношение участников тестирования к развитию современных технологий ИИ /  выбор конкретного определения как сгенерированного ИИ

Сделано ли соответствующее определение при помощи приложения ИИ (учитывались только верные ответы «да»)

Как вы смотрите на развитие технологий ИИ, %

оптимистично

нейтрально

Определение 1

42,37

61,34

Определение 2

48,09

33,23

Определение 3

45,42

35,31

Определение 4

64,25

57,2

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 2
Attitude of test participants towards the development of modern AI technologies /  Choice of a specific definition as generated by AI

Was the corresponding determination made using the AI (only correct ‘yes’ answers were taken into account)

How do you view the development of AI, %

optimistic

neutral

Definition 1

42.37

61.34

Definition 2

48.09

33.23

Definition 3

45.42

35.31

Definition 4

64.25

57.2

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

Таблица 3
Отношение участников тестирования к развитию современных технологий ИИ /  оценка степени идеологизированности текста определения

Среднее арифметическое / медианное значения степени идеологизированности содержания определения

Как вы смотрите на развитие технологий ИИ

оптимистично

нейтрально

Определение 1

2/2

1,4/1

Определение 2

2,2/2

2,03/2

Определение 3

2,25/2

2,1/2

Определение 4

2/2

1,8/2

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 3
Attitude of test participants towards the development of modern AI technologies /  Assessment of the ideologisation degree of the definition

The mean/median value of the degree of ideologisation of the content of the definition

How do you view the development of AI

optimistic

neutral

Definition 1

2/2

1.4/1

Definition 2

2.2/2

2.03/2

Definition 3

2.25/2

2.1/2

Definition 4

2/2

1.8/2

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

Как отмечено в табл. 3, медианные значения оценок степени идеологизированности текстов определений у «оптимистов» в отношении развития ИИ равны двум применительно ко всем дефинициям, сгенерированным ИИ. У нейтрально настроенных по вопросу о развитии ИИ этот показатель по всем дефинициям равен двум, за исключением определения 1, где медианная оценка равна единице.

Полученные исследовательские результаты позволяют сделать ряд выводов.

Во-первых, участники экспериментального тестирования разделились примерно поровну на сторонников либо нейтрального, либо оптимистичного взгляда на современное развитие технологий ИИ (при полном отсутствии «пессимистов»). Возможно, имеет значение фактор возраста: молодая аудитория чаще концентрирует внимание на возможностях, а не рисках (впрочем, подобное предположение требует последующего рассмотрения).

Во-вторых, в ходе пилотного тестирования выяснилось, что в 50 % случаев определить факт генерирования текста при помощи ИИ удалось менее чем половине участников, а в одном из случаев – чуть более чем половине, что свидетельствует о возникших трудностях с установлением природы происхождения текста предложенных дефиниций термина «политические ценности). Одной из причин подобного результата может выступать качество генерируемого контента с точки зрения близости его содержания академическим дефинициям. Допускается и возможность случайного фактора. Определить процент таких индивидов затруднительно без использования специальных психофизиологических метрик, позволяющих выявлять объективные параметры выбора.

Исследование показало, что, как правило, в группе «оптимистов» доля тех, кто верно определил «искусственный» характер происхождения дефиниции, выше, чем в группе «нейтральных» (исключение составляет лишь ситуация с определением 1). Вопрос о причинах подобного распределения ответов остается открытым: возможно, оптимизм вызван частым использованием приложений ИИ и, как результат, бо́льшей готовностью оценить тот или иной контент как сгенерированный ИИ (фактор опыта). Результаты табл. 4 показывают, что «оптимисты» чаще пользуются ИИ, чем «нейтральные»: абсолютное большинство «оптимистов» применяют их «часто», «очень часто» или «всегда», а более 61 % от всех «нейтральных» – «редко» либо «очень редко».

Таблица 4
Отношение участников тестирования к развитию современных технологий ИИ /  частота использования участниками ИИ

Как часто вы используете технологии ИИ

Как вы смотрите на развитие технологий ИИ, %

оптимистично

нейтрально

Всегда

11,58

0

Очень часто

27,23

12,72

Часто

53,56

24,85

Редко

7,63

52,37

Очень редко

0

9,47

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 4
Attitude of test participants towards the development of modern AI technologies /  Frequency of AI use

How often do you use AI technologies

How do you view the development of AI, %

optimistic

neutral

Always

11.58

0

Very Often

27.23

12.72

Often

53.56

24.85

Rarely

7.63

52.37

Very Rarely

0

9.47

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

В-третьих, показатели медианных значений оценок степени идеологизированности предложенных дефиниций термина «политические ценности» говорят, что, по мнению участников эксперимента, для представленных определений свойственна умеренно низкая степень выраженности указанного признака. Любопытно, что и «оптимисты», и «нейтральные» практически одинаково оценили степень идеологизированности сгенерированных ИИ определений – на умеренно низком уровне (за исключением определения 1, везде медианные значения равны двум). Вероятно, разница в отношении к развитию ИИ среди небольшой группы участников исследования не оказывает определяющего воздействия на оценку степени идеологизированности изучаемых дефиниций. Впрочем, в текущей работе на установлено наличие «пессимистов» по отношению к развитию ИИ, а представлены практически только «оптимисты» и «нейтральные», дистанция во взглядах которых в указанном вопросе ощутимо меньше, чем между «оптимистами» и «пессимистами». Однако «пессимисты», как правило, более характерны для иных возрастных групп населения, но проверка данной гипотезы потребует отдельного исследования.

Вместе с тем в группе «нейтральных» практически во всех случаях дефинициям было выставлено больше нулевых оценок, свидетельствующих об отсутствии какой-либо идеологизированности, чем в группе «оптимистов» (кроме определения 4, где наблюдается равенство по этому показателю). Иными словами, нейтрально настроенные по отношению к развитию ИИ участники эксперимента чаще говорят о деидеологизированности сформированных с помощью ИИ определений. Возможно, одна из причин выявленной тенденции – это общее нейтральное отношение и к ИИ, и к генерируемому его алгоритмами контенту. Соответственно, это формирует интересную картину: нейтральное отношение к технологиям ИИ создает наилучшие условия для влияния на политические взгляды индивида, так как предполагает, что ИИ дает объективную и нейтральную информацию.

Заключение

Настоящее исследование позволило эмпирически проверить влияние субъективного отношения к технологиям ИИ на восприятие генерируемого им политического контента. Проведенный эксперимент выявил три ключевых результата.

Во-первых, продемонстрирована ограниченная способность респондентов, даже с профильным политологическим образованием, к надежной идентификации текстов, созданных ИИ. Тот факт, что точность в половине случаев не превышала 50 %, указывает на возрастающую семиотическую сложность генерированного контента и его растущее сходство с текстами, созданными человеком. Во-вторых, установлена статистически значимая связь между отношением к ИИ и точностью распознавания. Более высокие показатели в группе «оптимистов» позволяют предположить, что позитивный технологический настрой может коррелировать с более высоким уровнем цифровой грамотности, либо с более частым опытом взаимодействия с ИИ, что развивает цифровую интуицию. В-третьих, было обнаружено парадоксальное явление. Хотя общие медианные оценки идеологизированности совпали, группа «нейтральных» участников значимо чаще присваивала контенту нулевую оценку идеологизированности, то есть воспринимала его как абсолютно объективный. Этот вывод имеет критическое значение: именно нейтральное, а не скептическое отношение к ИИ создает наиболее уязвимую аудиторию. Подспудное восприятие ИИ как нейтрального инструмента формирует слепую зону для потенциального информационного и идеологического воздействия, поскольку такой контент не подвергается критической рефлексии.

Таким образом, полученные данные вносят вклад в теорию медиавосприятия в цифровую эпоху, демонстрируя, что не только явные страхи, но и технологический оптимизм и нейтралитет по-разному взаимодействуют с генерированным контентом. Практическая значимость работы заключается в том, что она выявляет группу «нейтральных» пользователей как ключевую мишень для программ медиаграмотности, нацеленных на формирование критического и осознанного подхода к текстам, созданным искусственным интеллектом.

Перспективы дальнейших исследований видятся в расширении выборки, включении в нее группы «пессимистов», а также в изучении воздействия не только текстового, но и мультимедийного контента.

 

 

1 ИИ: ваш новый лучший друг? // Всероссийский центр изучения общественного мнения. 2024. 3 декабря. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/ii-vash-novyi-luchshii-drug (дата обращения: 05.08.2025).

2 ChatGPT breaks its own rules on political messages // The Washington Post. 2023. August 28. URL: https://www.washingtonpost.com/technology/2023/08/28/ai-2024-election-campaigns-disinformation-ads/ (accessed: 03.07.2025).

3 Было установлено, что ChatGPT считает себя очень открытым и доброжелательным (highly open and agreeable), что, по мнению ученых, является чертами, указывающими на наличие прогрессивных политических взглядов (progressive political views). По шкале определения типа личности было выявлено, что ChatGPT относится к типу ENFJ (Extraverted – экстраверсия, Intuitive – интуиция, Feeling – чувствование, Judging – суждение), хотя средние показатели экстраверсии и интроверсии, выраженные приложением ИИ, были очень схожими – 51 и 49 % соответственно (Rutinowski et al., 2024).

4 Official website of ChatGPT. URL: https://www.chatgpt.org (accessed: 08.04.2025).

×

About the authors

Dmitriy I. Kaminchenko

Lobachevsky University; Neimark University

Author for correspondence.
Email: dmitkam@inbox.ru
ORCID iD: 0000-0002-3193-3423
SPIN-code: 4176-7427

PhD in Political Sciences, Associate Professor of the Department of Political Science, Lobachevsky University; Senior Researcher of the Cognitive Security Lab, Neimark University

23 Gagarin Ave, Nizhny Novgorod, 603022, Russian Federation; 6 Nartova St, Nizhny Novgorod, 603057, Russian Federation

Aleksandr Yu. Petukhov

Lomonosov Moscow State University; Neimark University

Email: Lectorr@yandex.ru
ORCID iD: 0000-0002-7412-5397
SPIN-code: 2704-2219

PhD in Political Sciences, Associate Professor, Head of Laboratory of Mathematical Methods of Political Analysis and Forecasting, Lomonosov Moscow State University; Director of Science and Head of the Cognitive Security Lab, Neimark University

1 Leninskie Gory St, Moscow, 119991, Russian Federation; 6 Nartova St, Nizhny Novgorod, 603057, Russian Federation

References

  1. Belyakov, M.V., & Maksimenko, O.I. (2023). Dialog systems: History of development and GPT chat-bots as a new linguosemiotic reality. In M.V. Ivanov, V.O. Nechaevskii (Eds., Comp.), Military-Humanitarian Almanac: Proceedings of the XVII International Scientific Conference on Actual Problems of Language and Communication ‘Language. Communication. Translation’, Military University, June 30, 2023, Moscow (pp. 477–485). Military University Publ. (In Russ).
  2. Ben-David, S., Hrubeš, P., Moran, S., Shpilka, A., & Yehudayoff, A. (2019). Learnability can be undecidable. Nature Machine Intelligence, 1(1), 44–48. https://doi.org/10.1038/s42256-018-0002-3
  3. Bogdan, I.V. (2014). Political values in modern Russia: cognitive, emotional and behavioral aspects. Problem Analysis and Public Administration Projection, 7(3), 24–34. (In Russ.)
  4. Buchnev, E.V. (2022). Problems of applying artificial intelligence technologies in modern Russian politics. In I.V. Tseveleva (Ed.), Social and Humanitarian Sciences in the Context of Modern Challenges: Proceedings of the II All-Russian Scientific and Practical Conference of Young Scientists with International Participation, November 21–23, 2022, Komsomolsk-on-Amur (Part 1, pp. 157–161). Komsomolsk-na-Amure State University Publ. (In Russ.)
  5. Bykov, I.A. (2020). Artificial intelligence as a source of political thinking. Journal of Political Research, 4(2), 23–33. (In Russ.) https://doi.org/10.12737/2587-6295-2020-23-33
  6. Darius, P., & Römmele, A. (2023). KI und datengesteuerte Kampagnen: eine Diskussion der Rolle generativer KI im politischen Wahlkampf. Politische Vierteljahresschrift, 64(S2), 199–212. https://doi.org/10.5771/9783748915553-199
  7. Fedorchenko, S.N. (2020). Artificial intelligence phenomenon: citizen between digital avatar and political interface. Journal of Political Research, 4(2), 34–57. (In Russ.) https://doi.org/10.12737/2587-6295-2020-34-57
  8. Kaminchenko, D.I. (2025). On the political role of artificial intelligence technologies: results of an experimental study. Tomsk State University Journal of Philosophy, Sociology and Political Science, 87. (In Russ.)
  9. Kaminchenko, D.I., & Petukhov, A.Yu. (2024). Analysis of the features of representation of candidates in the 2024 US presidential elections in the application of generative artificial intelligence. RUDN Journal of Studies in Literature and Journalism, 29(4), 772–787. (In Russ.) http://doi.org/10.22363/2312-9220-2024-29-4-772-787
  10. Koster, A.K. (2022). Das Ende des Politischen? Demokratische Politik und Künstliche Intelligenz. Zeitschrift für Politikwissenschaft, 32(2), 573–594. https://doi.org/10.1007/s41358-021-00280-5
  11. Nicolay, R. (2025). Die Mensch-KI-Ausrichtung. In A. Martens, C.H. Cap (Eds.), Schreibende KI – ein interdisziplinärer Diskurs. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-45839-3_5
  12. Peters, U. (2022). Algorithmic political bias in artificial intelligence systems. Philosophy & Technology, 35, 25. https://doi.org/10.1007/s13347-022-00512-8
  13. Petukhov, A.Yu., Malhanov, Al.O., Sandalov, V.M., & Petukhov, Yu.V. (2020). Mathematical modeling of ethno-social conflicts with the introduction of the control function. Simulation, 96(3), 337–346. https://doi.org/10.1177/0037549719884629
  14. Rozado, D. (2023). The political biases of ChatGPT. Social Sciences. 12(3), 148. https://doi.org/10.3390/socsci12030148
  15. Rutinowski, J., Franke, S., Endendyk, J, Dormuth, I., Roidl, M., & Pauly, M. (2024). The self-perception and political biases of ChatGPT. Human Behavior and Emerging Technologies, 5548899. https://doi.org/10.1155/2024/7115633
  16. Schäfer, P.J., Karpouchtsis, C.B., & Schaal, G.S. (2023). Bericht zur konferenz politische kommunikation und KI – chancen und herausforderung für die regierungskommunikation. Zeitschrift für Außen – und Sicherheitspolitik, 16(2), 199–203. https://doi.org/10.1007/s12399-023-00945-9
  17. Schröder, S. (2025). Textgenerierende KI im Verwaltungsverfahren – Politische Ziele, Regulierung und Verwaltungspraxis im Spannungsfeld. In A. Martens, C.H. Cap (Eds.), Schreibende KI – ein interdisziplinärer Diskurs (pp. 229–247). Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-45839-3_10
  18. Selezneva, A.V. (2019). Conceptual and methodological foundations of the political-psychological analysis of political values. Tomsk State University Journal of Philosophy, Sociology and Political Science, (49), 177–192. (In Russ.) https://doi.org/10.17223/1998863Х/49/18
  19. Selezneva, A.V., & Antonov, D.E. (2020). The value bases of the civic consciousness of the Russian youth. Tomsk State University Journal of Philosophy, Sociology and Political Science, (58), 227–241. (In Russ.) https://doi.org/10.17223/1998863X/58/21
  20. Volodenkov, S.V., Fedorchenko, S.N., & Pechenkin, N.M. (2023). Influence of the digital environment on the contemporary worldview: Pro et Contra. RUDN Journal of Political Science, 25(1), 113–133. (In Russ.) https://doi.org/10.22363/2313-1438-2023-25-1-113-133
  21. Volodenkov, S.V., Fedorchenko, S.N., & Pechenkin, N.M. (2024). Risks, threats, and challenges of introducing artificial intelligence and neural network algorithms into the contemporary system of socio-political communications: the results of expert study. RUDN Journal of Political Science, 26(2), 406–424. (In Russ.) https://doi.org/10.22363/2313-1438-2024-26-2-406-424
  22. Zimin, V.A. (2012). Political values as incentives and barriers of the Russian modernization. Vestnik of Volzhsky University namad after V.N. Tatishchev, (4), 135–143. (In Russ.)

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Kaminchenko D.I., Petukhov A.Y.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.