Распознавание сгенерированного ИИ политического контента: роль субъективных установок

Обложка

Цитировать

Полный текст

Аннотация

Развитие генеративного искусственного интеллекта (ИИ) ставит вопрос о способности пользователей отличать созданный им контент от созданного человеком, особенно в политической сфере. Данное исследование направлено на выявление связи между субъективным отношением к ИИ и точностью распознавания сгенерированного им политического контента. В ходе эксперимента, проведенного среди студентов-политологов ( n = 60), респондентам предлагалось идентифицировать определения понятия «политические ценности», сгенерированные ChatGPT, и оценить их идеологизированность. Результаты показали, что около половины участников в среднем корректно определили искусственное происхождение определений. При этом группа «оптимистов», позитивно настроенных к развитию ИИ, продемонстрировала значительно более высокую точность распознавания по сравнению с группой «нейтральных» участников. Парадоксально, но именно «нейтральные» респонденты значимо чаще оценивали контент ИИ как абсолютно объективный и лишенный идеологической окраски. Это указывает на то, что нейтральное, а не скептическое отношение к ИИ может создавать слепую зону для потенциального идеологического влияния, так как такой контент не подвергается достаточной критической рефлексии. Исследование вносит вклад в понимание того, как установки пользователей опосредуют восприятие политического контента в эпоху генеративного ИИ.

Полный текст

Введение

Развитие технологий искусственного интеллекта создает новые вызовы и риски для социальных систем, в том числе в вопросах когнитивной деградации общества из-за снижения количества информационных задач. Алгоритмы ИИ дают не только нейтральные, но и оценочные ответы на запросы, при этом сгенерированные факты могут искажаться или вовсе исчезать. Поскольку сбор и обработку данных осуществляет алгоритм, не обладающий собственным самосознанием, многие пользователи полагают, что имеют дело с непредвзятым источником информации (Беляков, Максименко, 2023). Согласно данным ВИЦОМ 63 % россиян пользуются технологиями ИИ, причем 54 % опрошенных позитивно воспринимают ИИ, прежде всего как помощника, который облегчает решение повседневно-бытовых задач[1]. Это формирует доверительное отношение у отдельного индивида к искусственному интеллекту как к непредвзятому источнику информации[2].

Популярность технологий ИИ и усиление их общественной и политической роли нашло отражение в научном дискурсе. Ученые рассматривают различные аспекты влияния указанных технологий, выстраивая футурологические прогнозы последующих общественных изменений (Petukhov et al., 2024), отмечая, что если ИИ будет и далее совершенствоваться, он сможет развить собственные языки, математические и физические концепции, причем людям будет очень сложно постичь знания, полученные с помощью этих инструментов (Nicolay, 2025, p. 120). Также есть мнение о наличии значимого барьера в сфере развития технологий ИИ, существуют серьезные математические основания полагать, что сложившиеся архитектуры имеют ограничения (Ben-David et.al., 2019).

Использование технологий ИИ в политических процессах изучали как русскоязычные авторы (Быков, 2020; Володенков и др., 2024, 2023; Каминченко, Петухов, 2024 и др.), так и зарубежные (Darius, Römmele, 2023; Koster, 2022; Peters, 2022; Rozado, 2023 et al.).

Немецкие ученые Института машинного обучения и искусственного интеллекта имени Ламарра попытались выявить, какие политические взгляды в большей степени выражает ChatGPT. Использовался тест на определение структуры личности Big Five и психологический тест MBTI (Rutinowski et al., 2024)[3].

В некоторых работах отмечается, что алгоритмы ИИ могут формировать предвзятый контент по отношению к политическим ориентациям, аналогично тому, как в случае генерирования контента, в котором встречаются, например, гендерные предубеждения (Peters, 2022). Российский исследователь И.А. Быков задается вопросом, насколько граждане, бюрократия, элиты и политики могут доверять политическим суждениям, генерируемым с помощью технологий ИИ (2020, с. 24). Интересное направление исследований в рамках изучаемой темы – возможности и угрозы в области государственного управления, в частности в сфере автоматизации административных процессов. Например, С. Шрёдер пишет о том, что веб-приложения искусственного интеллекта, генерирующие текстовый контент, способны улучшить работу органов государственной власти. Вместе с тем он отмечает, что пока неизвестно, возможно ли адаптировать технологии ИИ к существующей правовой системе или же саму правовую систему с минимальными рисками можно адаптировать к все более изменяющимся и совершенствующимся технологиям (Schröder, 2025, p. 245). На любопытный момент указывает Е.В. Бучнев (2022): как государство (прежде всего в его институциональном измерении) операционализирует само понятие «искусственный интеллект», какое место ИИ занимает в формировании политики цифрового суверенитета.

Изучение роли современных технологий ИИ как организационного механизма в сфере общественной и политической коммуникации – востребованное научно-исследовательское направление. В качестве гипотетического потенциала от внедрения ИИ для социума С.Н. Федорченко (2022, с. 54) называет «создание нового типа цифровой демократии, когда политический режим будет учитывать голос каждого человека».

Коллективом авторов из Германии выделено три измерения публичной коммуникации с точки зрения воздействия на нее технологий ИИ. Первое – измерение медиации (die Dimension der Vermittlung), которое рассматривает, например, возможности автоматизированной коммуникации в процессах ИИ и связанные с этим масштабируемость, и подход, ориентированный на целевую группу. Второе – измерение индивидуального позиционирования (die Dimension der individuellen Disposition), которое рассматривает мотивационные ресурсы дискурса и влияние на них ИИ. Третье – измерение обсуждения на макроуровне (die Dimension der Deliberation auf Makrobene), которое охватывает вызовы и возможности, связанные с растущей интеграцией процессов ИИ в публичную коммуникацию в контексте фундаментальных концепций, ценностей и норм делиберативной демократии (Schäfer et.al., 2023, p. 200).

Несмотря на растущий интерес к изучению общественной и политической роли ИИ, в обозначенной предметной области написано относительно немного научных работ. Для специалистов по формированию общественного мнения остаются актуальными ответы на вопросы: «Какова специфика контента генерируемого ИИ? Отражены ли в нем элементы той или иной политической идеологии? Какое влияние он оказывает на формирование и изменение политического сознания индивида, групп и общества?».

В данном исследовании изучаются особенности восприятия политического контента, генерируемого популярным веб-приложением ИИ – ChatGPT, выявляются связи между отношением к ИИ, с одной стороны, и оценкой природы происхождения политического текста и степени его возможной идеологизированности – с другой.

Материалы и методы

Для достижения заявленной цели разработан экспериментальный тест «Политические ценности» (важно, чтобы в теме теоретически могли быть расставлены те или иные политико-аксиологические акценты). Тестирование проведено в апреле 2025 г. среди студентов бакалавриата политологии 1–4 курсов, проходящих обучение в Институте международных отношений и мировой истории Нижегородского государственного университета им. Н.И. Лобачевского (ИМОМИ ННГУ). Выбор обусловлен тем, что участники должны быть готовы установить наличие либо отсутствие в содержании текстов ценностных акцентов. Студенты политологического направления, начиная с первого курса, соприкасаются с обозначенной проблематикой.

Объем выборки – 60 человек. Учитывая, что цель работы – это не индустриальный опрос, а осуществление пробного экспериментального тестирования небольшой группы людей, которые активно погружены в политологическую тематику, указанный объем выборки вполне достаточен для реализации поставленных задач.

В исследовании использованы прикладные методы: анкетирование, шкалирование, статистический и сравнительный анализ, построение таблиц сопряженности.

Разработана специальная анкета из двух частей. В первой части представлены общие вопросы, где участников просили указать номер курса, пол, отношение к технологиям ИИ (оптимистичное / нейтральное / пессимистичное) и частоту их использования (всегда / очень часто / часто / редко / очень редко / никогда). Вторая часть – табличная матрица, где по строчкам приведено семь определений понятия «политические ценности», а по столбцам – участники пилотного эксперимента отвечают на ряд вопросов, выполняют задания, в том числе с использованием шкалирования.

Подробное описание этапов, хода и деталей эксперимента уже было представлено в одной из работ (Каминченко, 2025). Не будем останавливаться на структуре эксперимента, но отметим, что в нем использованы дефиниции ряда российских авторов (Богдан, 2014, с. 24; Зимин, 2012, с. 136; Селезнева, 2019, с. 178; Селезнева, Антонов, 2020, с. 228) и определения, сгенерированные ChatGPT c начала апреля 2025 г.[4]

Результаты и обсуждение

Из 60 участников экспериментального тестирования 50 % составляют мужчины, 48 % – женщины (в одном из анкетных бланков информация о поле не указана). Говоря о своем отношении к развитию современных технологий ИИ, ровно половина участников заявила о нейтральности, 47 % смотрят на ИИ оптимистично, 3 % не ответили. Любопытно, что никто не высказал пессимистичного взгляда на развитие ИИ.

Применительно к результатам заполнения второй части бланка тестирования нас интересуют количественные данные, связанные с определениями термина «политические ценности», сгенерированными ChatGPT, – какой процент участников исследования точно указали эти дефиниции как сформированные при помощи ИИ. В случае со шкальными оценками степени идеологизированности использовались средние арифметические и медианные значения (вторые, на наш взгляд, более показательны с точки зрения поиска обшей тенденции). Статистические результаты отражены в табл. 1.

Таблица 1
Статистические показатели частоты ответов участников эксперимента на вопросы о происхождении определений термина «политические ценности» и медианных значений степени идеологизации

Определения понятия «политические ценности», сгенерированные при помощи ИИ

Участники тестирования, ответившие, что определение сгенерировано при помощи ИИ, %

Среднее арифметическое и медианное значения степени идеологизированности содержания определения по шкале от 0 до 5

Определение 1

53

1,7/1

Определение 2

43

2,2/2

Определение 3

42

2,2/2

Определение 4

63

1,85/2

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 1
Statistical indicators of the frequency of responses of the experiment participants to questions about the origin of the definitions of the term Political Values and the median values of the degree of ideologization

AI-Generated definitions of Political Values

Test participants who responded that the definition was generated using AI, %

The mean and median values of the degree of ideological content of the definition on a scale from 0 to 5

Definition 1

53

1.7/1

Definition 2

43

2.2/2

Definition 3

42

2.2/2

Definition 4

63

1.85/2

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

Как показывают данные табл. 1, определение 4 чаще остальных называлось участниками как сгенерированное посредством ИИ (63 %), далее идет определение 1 (53 %), еще реже были названы определения 3 и 2 (42 и 43 % соответственно). Полагаем, что общие показатели в 40–50 % в данном случае можно обозначить как относительно небольшие с точки зрения определения природы дефиниций (разумеется, подобная шкала оценки значений носит условный характер). Иными словами, в двух из четырех случаев у половины участников эксперимента возникли трудности с установлением природы происхождения определения термина «политические ценности» (в случае с еще одним определением подобные трудности возникли у 47 % участников тестирования).

Согласно табл. 1 медианный показатель степени идеологизированности большинства дефиниций равен двум (определения 2, 3 и 4), а в одном случае – единице (определение 1). Это свидетельствует, что студенты политологического направления оценивают степень идеологизированности, представленную в текстах определений от ИИ, как умеренно низкую, что по сути опровергает идею о наличии явных «политических предпочтений» в контенте ИИ.

Для выполнения поставленных задач были построены таблицы сопряженности. В основе табл. 2 следующие вопросы: 1) отношение участников тестирования к развитию современных технологий ИИ (респонденты разделились практически поровну – «оптимисты» и «нейтральные»); 2) выбор конкретного определения как сгенерированного ИИ. В первом вопросе нас интересуют данные ответов только «оптимистов» и «нейтральных» (абсолютное большинство всех участников эксперимента), а во втором – только положительные (верные) ответы о том, что конкретная дефиниция сгенерирована ИИ. В табл. 3 также отобразим два вопроса: 1) отношение участников тестирования к развитию современных технологий ИИ (снова интересуют группы «оптимистов» и «нейтральных»); 2) оценку степени идеологизированности содержания конкретной дефиниции.

Согласно данным табл. 2 в случае с тремя дефинициями из четырех доля «оптимистов», точно указавших на «искусственную» природу текста определения (сгенерированного ИИ), стабильно превышает аналогичную долю участников, нейтрально настроенных по отношению к развитию ИИ. Исключение составляет случай с текстом определения 1. Любопытно, что только в трех случаях процентный показатель от общего числа «оптимистов» и «нейтральных» превышает 50 % (в случае с определениями 1 и 4).

Таблица 2
Отношение участников тестирования к развитию современных технологий ИИ /  выбор конкретного определения как сгенерированного ИИ

Сделано ли соответствующее определение при помощи приложения ИИ (учитывались только верные ответы «да»)

Как вы смотрите на развитие технологий ИИ, %

оптимистично

нейтрально

Определение 1

42,37

61,34

Определение 2

48,09

33,23

Определение 3

45,42

35,31

Определение 4

64,25

57,2

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 2
Attitude of test participants towards the development of modern AI technologies /  Choice of a specific definition as generated by AI

Was the corresponding determination made using the AI (only correct ‘yes’ answers were taken into account)

How do you view the development of AI, %

optimistic

neutral

Definition 1

42.37

61.34

Definition 2

48.09

33.23

Definition 3

45.42

35.31

Definition 4

64.25

57.2

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

Таблица 3
Отношение участников тестирования к развитию современных технологий ИИ /  оценка степени идеологизированности текста определения

Среднее арифметическое / медианное значения степени идеологизированности содержания определения

Как вы смотрите на развитие технологий ИИ

оптимистично

нейтрально

Определение 1

2/2

1,4/1

Определение 2

2,2/2

2,03/2

Определение 3

2,25/2

2,1/2

Определение 4

2/2

1,8/2

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 3
Attitude of test participants towards the development of modern AI technologies /  Assessment of the ideologisation degree of the definition

The mean/median value of the degree of ideologisation of the content of the definition

How do you view the development of AI

optimistic

neutral

Definition 1

2/2

1.4/1

Definition 2

2.2/2

2.03/2

Definition 3

2.25/2

2.1/2

Definition 4

2/2

1.8/2

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

Как отмечено в табл. 3, медианные значения оценок степени идеологизированности текстов определений у «оптимистов» в отношении развития ИИ равны двум применительно ко всем дефинициям, сгенерированным ИИ. У нейтрально настроенных по вопросу о развитии ИИ этот показатель по всем дефинициям равен двум, за исключением определения 1, где медианная оценка равна единице.

Полученные исследовательские результаты позволяют сделать ряд выводов.

Во-первых, участники экспериментального тестирования разделились примерно поровну на сторонников либо нейтрального, либо оптимистичного взгляда на современное развитие технологий ИИ (при полном отсутствии «пессимистов»). Возможно, имеет значение фактор возраста: молодая аудитория чаще концентрирует внимание на возможностях, а не рисках (впрочем, подобное предположение требует последующего рассмотрения).

Во-вторых, в ходе пилотного тестирования выяснилось, что в 50 % случаев определить факт генерирования текста при помощи ИИ удалось менее чем половине участников, а в одном из случаев – чуть более чем половине, что свидетельствует о возникших трудностях с установлением природы происхождения текста предложенных дефиниций термина «политические ценности). Одной из причин подобного результата может выступать качество генерируемого контента с точки зрения близости его содержания академическим дефинициям. Допускается и возможность случайного фактора. Определить процент таких индивидов затруднительно без использования специальных психофизиологических метрик, позволяющих выявлять объективные параметры выбора.

Исследование показало, что, как правило, в группе «оптимистов» доля тех, кто верно определил «искусственный» характер происхождения дефиниции, выше, чем в группе «нейтральных» (исключение составляет лишь ситуация с определением 1). Вопрос о причинах подобного распределения ответов остается открытым: возможно, оптимизм вызван частым использованием приложений ИИ и, как результат, бо́льшей готовностью оценить тот или иной контент как сгенерированный ИИ (фактор опыта). Результаты табл. 4 показывают, что «оптимисты» чаще пользуются ИИ, чем «нейтральные»: абсолютное большинство «оптимистов» применяют их «часто», «очень часто» или «всегда», а более 61 % от всех «нейтральных» – «редко» либо «очень редко».

Таблица 4
Отношение участников тестирования к развитию современных технологий ИИ /  частота использования участниками ИИ

Как часто вы используете технологии ИИ

Как вы смотрите на развитие технологий ИИ, %

оптимистично

нейтрально

Всегда

11,58

0

Очень часто

27,23

12,72

Часто

53,56

24,85

Редко

7,63

52,37

Очень редко

0

9,47

Источник: составлено Д.И. Каминченко, А.Ю. Петуховым на основе данных тестирования.

Table 4
Attitude of test participants towards the development of modern AI technologies /  Frequency of AI use

How often do you use AI technologies

How do you view the development of AI, %

optimistic

neutral

Always

11.58

0

Very Often

27.23

12.72

Often

53.56

24.85

Rarely

7.63

52.37

Very Rarely

0

9.47

Source: compiled by Dmitriy I. Kaminchenko, Aleksandr Yu. Petukhov based on testing data.

В-третьих, показатели медианных значений оценок степени идеологизированности предложенных дефиниций термина «политические ценности» говорят, что, по мнению участников эксперимента, для представленных определений свойственна умеренно низкая степень выраженности указанного признака. Любопытно, что и «оптимисты», и «нейтральные» практически одинаково оценили степень идеологизированности сгенерированных ИИ определений – на умеренно низком уровне (за исключением определения 1, везде медианные значения равны двум). Вероятно, разница в отношении к развитию ИИ среди небольшой группы участников исследования не оказывает определяющего воздействия на оценку степени идеологизированности изучаемых дефиниций. Впрочем, в текущей работе на установлено наличие «пессимистов» по отношению к развитию ИИ, а представлены практически только «оптимисты» и «нейтральные», дистанция во взглядах которых в указанном вопросе ощутимо меньше, чем между «оптимистами» и «пессимистами». Однако «пессимисты», как правило, более характерны для иных возрастных групп населения, но проверка данной гипотезы потребует отдельного исследования.

Вместе с тем в группе «нейтральных» практически во всех случаях дефинициям было выставлено больше нулевых оценок, свидетельствующих об отсутствии какой-либо идеологизированности, чем в группе «оптимистов» (кроме определения 4, где наблюдается равенство по этому показателю). Иными словами, нейтрально настроенные по отношению к развитию ИИ участники эксперимента чаще говорят о деидеологизированности сформированных с помощью ИИ определений. Возможно, одна из причин выявленной тенденции – это общее нейтральное отношение и к ИИ, и к генерируемому его алгоритмами контенту. Соответственно, это формирует интересную картину: нейтральное отношение к технологиям ИИ создает наилучшие условия для влияния на политические взгляды индивида, так как предполагает, что ИИ дает объективную и нейтральную информацию.

Заключение

Настоящее исследование позволило эмпирически проверить влияние субъективного отношения к технологиям ИИ на восприятие генерируемого им политического контента. Проведенный эксперимент выявил три ключевых результата.

Во-первых, продемонстрирована ограниченная способность респондентов, даже с профильным политологическим образованием, к надежной идентификации текстов, созданных ИИ. Тот факт, что точность в половине случаев не превышала 50 %, указывает на возрастающую семиотическую сложность генерированного контента и его растущее сходство с текстами, созданными человеком. Во-вторых, установлена статистически значимая связь между отношением к ИИ и точностью распознавания. Более высокие показатели в группе «оптимистов» позволяют предположить, что позитивный технологический настрой может коррелировать с более высоким уровнем цифровой грамотности, либо с более частым опытом взаимодействия с ИИ, что развивает цифровую интуицию. В-третьих, было обнаружено парадоксальное явление. Хотя общие медианные оценки идеологизированности совпали, группа «нейтральных» участников значимо чаще присваивала контенту нулевую оценку идеологизированности, то есть воспринимала его как абсолютно объективный. Этот вывод имеет критическое значение: именно нейтральное, а не скептическое отношение к ИИ создает наиболее уязвимую аудиторию. Подспудное восприятие ИИ как нейтрального инструмента формирует слепую зону для потенциального информационного и идеологического воздействия, поскольку такой контент не подвергается критической рефлексии.

Таким образом, полученные данные вносят вклад в теорию медиавосприятия в цифровую эпоху, демонстрируя, что не только явные страхи, но и технологический оптимизм и нейтралитет по-разному взаимодействуют с генерированным контентом. Практическая значимость работы заключается в том, что она выявляет группу «нейтральных» пользователей как ключевую мишень для программ медиаграмотности, нацеленных на формирование критического и осознанного подхода к текстам, созданным искусственным интеллектом.

Перспективы дальнейших исследований видятся в расширении выборки, включении в нее группы «пессимистов», а также в изучении воздействия не только текстового, но и мультимедийного контента.

 

 

1 ИИ: ваш новый лучший друг? // Всероссийский центр изучения общественного мнения. 2024. 3 декабря. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/ii-vash-novyi-luchshii-drug (дата обращения: 05.08.2025).

2 ChatGPT breaks its own rules on political messages // The Washington Post. 2023. August 28. URL: https://www.washingtonpost.com/technology/2023/08/28/ai-2024-election-campaigns-disinformation-ads/ (accessed: 03.07.2025).

3 Было установлено, что ChatGPT считает себя очень открытым и доброжелательным (highly open and agreeable), что, по мнению ученых, является чертами, указывающими на наличие прогрессивных политических взглядов (progressive political views). По шкале определения типа личности было выявлено, что ChatGPT относится к типу ENFJ (Extraverted – экстраверсия, Intuitive – интуиция, Feeling – чувствование, Judging – суждение), хотя средние показатели экстраверсии и интроверсии, выраженные приложением ИИ, были очень схожими – 51 и 49 % соответственно (Rutinowski et al., 2024).

4 Official website of ChatGPT. URL: https://www.chatgpt.org (accessed: 08.04.2025).

×

Об авторах

Дмитрий Игоревич Каминченко

Нижегородский государственный университет им. Н.И. Лобачевского; Университет «Неймарк»

Автор, ответственный за переписку.
Email: dmitkam@inbox.ru
ORCID iD: 0000-0002-3193-3423
SPIN-код: 4176-7427

кандидат политических наук, доцент кафедры политологии, Нижегородский государственный университет им. Н.И. Лобачевского; старший научный сотрудник лаборатории когнитивной безопасности, Университет «Неймарк»

Российская Федерация, 603022, Нижний Новгород, пр. Гагарина, д. 23; Российская Федерация, 603057, Нижний Новгород, ул. Нартова, д. 6

Александр Юрьевич Петухов

Московский государственный университет им. М.В. Ломоносова; Университет «Неймарк»

Email: Lectorr@yandex.ru
ORCID iD: 0000-0002-7412-5397
SPIN-код: 2704-2219

кандидат политических наук, доцент, заведующий лабораторией математических методов политического анализа и прогнозирования, Московский государственный университет им. М.В. Ломоносова; директор по науке, заведующий лабораторией когнитивной безопасности, Университет «Неймарк»

Российская Федерация, 119991, Москва, Ленинские горы, д. 1; Российская Федерация, 603057, Нижний Новгород, ул. Нартова, д. 6

Список литературы

  1. Беляков М.В., Максименко О.И. Диалоговые системы: история развития и чат-боты GPT как новая лингвосемиотическая реальность // Военно-гуманитарный альманах : материалы XVII Междунар. науч. конф. по актуальным проблемам языка и коммуникации «Язык. Коммуникация. Перевод», Москва, Военный университет, 30 июня 2023 г. / сост. и науч. ред. М.В. Иванов, В.О. Нечаевский. М. : Военный университет, 2023. С. 477–485.
  2. Богдан И.В. Политические ценности в современной России: когнитивные, эмоциональные и поведенческие аспекты // Проблемный анализ и государственно-управленческое проектирование. 2014. Т. 7. № 3. С. 24–34.
  3. Бучнев Е.В. Проблемы использования технологий искусственного интеллекта в современной российской политике // Социальные и гуманитарные науки в условиях вызовов современности : материалы II Всерос. науч.-практ. конф. молодых ученых с международным участием, Комсомольск-на-Амуре, 21–23 ноября 2022 г. Ч. 1 / отв. ред. И.В. Цевелева. Комсомольск-на-Амуре: КнАГУ, 2022. С. 157–161.
  4. Быков И.А. Искусственный интеллект как источник политических суждений // Журнал политических исследований. 2020. Т. 4. № 2. С. 23–33. https://doi.org/10.12737/2587-6295-2020-23-33
  5. Володенков С.В., Федорченко С.Н., Печенкин Н.М. Влияние цифровой среды на современное мировоззрение: Pro et Contra // Вестник Российского университета дружбы народов. Серия: Политология. 2023. Т. 25. № 1. С. 113–133. https://doi.org/10.22363/2313-1438-2023-25-1-113-133
  6. Володенков С.В., Федорченко С.Н., Печенкин Н.М. Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования // Вестник Российского университета дружбы народов. Серия: Политология. 2024. Т. 26. № 2. С. 406–424. https://doi.org/10.22363/2313-1438-2024-26-2-406-424
  7. Зимин В.А. Политические ценности как стимулы и барьеры российской модернизации // Вестник Волжского университета им. В.Н. Татищева. 2012. № 4. С. 135–143.
  8. Каминченко Д.И. К вопросу о политической роли технологий искусственного интеллекта: результаты экспериментального исследования // Вестник Томского государственного университета. Философия. Социология. Политология. 2025. № 87.
  9. Каминченко Д.И., Петухов А.Ю. Анализ особенностей репрезентации кандидатов на выборах в президенты США 2024 года в приложении генеративного искусственного интеллекта ChatGPT // Вестник Российского университета дружбы народов. Серия: Литературоведение. Журналистика. 2024. Т. 29. № 4. С. 772–787. http://doi.org/10.22363/2312-9220-2024-29-4-772-787
  10. Селезнева А.В. Концептуально-методологические основания политико-психологического анализа политических ценностей // Вестник Томского государственного университета. Философия. Социология. Политология. 2019. № 49. С. 177–192. https://doi.org/10.17223/1998863Х/49/18
  11. Селезнева А.В., Антонов Д.Е. Ценностные основания гражданского самосознания российской молодежи // Вестник Томского государственного университета. Философия. Социология. Политология. 2020. № 58. С. 227–241. https://doi.org/10.17223/1998863X/58/21
  12. Федорченко С.Н. Феномен искусственного интеллекта: гражданин между цифровым аватаром и политическим интерфейсом // Журнал политических исследований. 2020. Т. 4. № 2. С. 34–57. https://doi.org/10.12737/2587-6295-2020-34-57
  13. Ben-David S., Hrubeš P., Moran S., Shpilka A., Yehudayoff A. Learnability can be undecidable // Nature Machine Intelligence. 2019. Vol. 1. No. 1. P. 44–48. https://doi.org/10.1038/s42256-018-0002-3
  14. Darius Ph., Römmele A. KI und datengesteuerte Kampagnen: eine Diskussion der Rolle generativer KI im politischen Wahlkampf // Politische Vierteljahresschrift. 2023. Vol. 64. No. S2. P. 199–212. https://doi.org/10.5771/9783748915553-199
  15. Koster A.-K. Das Ende des Politischen? Demokratische Politik und Künstliche Intelligenz // Zeitschrift für Politikwissenschaft. Vol. 32. No. 2. P. 573–594. https://doi.org/10.1007/s41358-021-00280-5
  16. Nicolay R. Die Mensch-KI-Ausrichtung // Schreibende KI – ein interdisziplinärer Diskurs / Eds. A. Martens, C.H. Cap. Wiesbaden : Springer Vieweg, 2025. P. 115–128. https://doi.org/10.1007/978-3-658-45839-3_5
  17. Peters U. Algorithmic political bias in artificial intelligence systems // Philosophy & Technology. 2022. Vol. 35. Article 25. https://doi.org/10.1007/s13347-022-00512-8
  18. Petukhov A.Yu., Malhanov A.O., Sandalov V.M., Petukhov Yu.V. Mathematical modeling of ethno-social conflicts with the introduction of the control function // Simulation. 2020. Vol. 96. No. 3. P. 337–346. https://doi.org/10.1177/0037549719884629
  19. Rozado D. The political biases of ChatGPT // Social Sciences. 2023. Vol. 12. No. 3. Article 148. https://doi.org/10.3390/socsci12030148
  20. Rutinowski J., Franke S., Endendyk J., Dormuth I., Roidl M., Pauly M. The self-perception and political biases of ChatGPT // Human Behavior and Emerging Technologies. 2024. Article 5548899. https://doi.org/10.1155/2024/7115633
  21. Schäfer P.J., Karpouchtsis C.B., Schaal G.S. Bericht zur konferenz politische kommunikation und KI – chancen und herausforderung für die regierungskommunikation // Zeitschrift für Außen – und Sicherheitspolitik. 2023. Vol. 16. No. 2. P. 199–203. https://doi.org/10.1007/s12399-023-00945-9
  22. Schröder S. Textgenerierende KI im Verwaltungsverfahren – Politische Ziele, Regulierung und Verwaltungspraxis im Spannungsfeld // Schreibende KI – ein interdisziplinärer Diskurs / eds. A. Martens, C.H. Cap. Wiesbaden : Springer Vieweg, 2025. P. 229–247. https://doi.org/10.1007/978-3-658-45839-3_10

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Каминченко Д.И., Петухов А.Ю., 2025

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.