Риски, угрозы и вызовы внедрения искусственного интеллекта и нейросетевых алгоритмов в современную систему социально-политических коммуникаций: по материалам экспертного исследования

Обложка

Цитировать

Полный текст

Аннотация

В условиях глобальных технологических трансформаций и активного проникновения в цифровое пространство социально-политических коммуникаций технологий искусственного интеллекта и алгоритмов нейросетей сегодня формируется новый формат социально-политических взаимодействий, определяемый широким использованием в коммуникационных процессах «умных» инструментов и механик генерации и трансляции контента. В связи с этим формируется запрос на проведение научных исследований процессов влияния искусственного интеллекта и нейросетей на содержательные и функциональные параметры современных социально-политических коммуникационных взаимодействий. Целью исследования стало определение взаимосвязи между «умными» технологиями и трансформацией современного пространства социально-политических коммуникаций в аспекте формирования рисков, угроз и вызовов нового типа, связанных с внедрением в актуальную практику социально-политических коммуникаций цифровых решений, базирующихся на применении технологий искусственного интеллекта и нейросетевых алгоритмов. В качестве основного исследовательского вопроса выступает проблематика степени и характера влияния процессов внедрения технологий искусственного интеллекта и нейросетевых алгоритмов в современное пространство социально-политических коммуникаций. Для достижения цели исследования и ответа на поставленный исследовательский вопрос авторами был применен метод дискурс-анализа научных источников по данной теме, а также проведено международное экспертное исследование, позволившее выявить ключевые экспертные позиции по теме исследования и на основе комплексирования полученных экспертных оценок определить основные риски, угрозы и вызовы социально-политического характера, формирующиеся в процессах современных цифровых коммуникаций. В качестве главного вывода работы выступает обоснованный и подтвержденный результатами исследования тезис о наличии широкого спектра социально-политических рисков, угроз и вызовов, связанных с внедрением в процессы современной цифровой коммуникации технологий искусственного интеллекта и нейросетевых алгоритмов. Также проведен содержательный анализ данных рисков, угроз и вызовов нового типа, способных в значительной степени повлиять на характер, динамику и сценарии современного технологического развития ключевых сфер жизнедеятельности современного государства и общества.

Полный текст

Введение При определении ключевых направлений современного академического дискурса по выбранному проблемному полю мы можем выделить несколько важнейших тематик, которые встречаются в научных работах исследователей в сегменте социально-политических рисков внедрения технологий искусственного интеллекта (далее - ИИ ). Так, в качестве одного из аспектов ученые выделяют автоматизацию, связанную с ИИ. Например, существует осторожная оценка, касающаяся последовательных волн автоматизации и появления рисков в отдаленном будущем. В период первой волны, которая должна завершиться в середине 2020-х гг., автоматизация затронет финансовый и IT-сектора и области операций с открытыми данными. Вторая волна автоматизации (конец 2020-х гг.) будет предполагать приобретение новых когнитивных и физических возможностей у людей-операторов в сфере розничных продаж, доставки и хранения. Наконец, для третьей волны (середина 2030-х гг.) будет характерно возникновение автономных систем и переход принятия решений к ИИ [Вислова 2020]. В существующих работах также описываются признаки сценария будущего на основе цифрового мониторинга (биометрии, видеофиксации), установления стандартов посредством алгоритмов [Hildebrandt 2018]. Другие авторы также обращают внимание на отдаленные фундаментальные или экзистенциальные риски ИИ, опасные для самого существования человека как субъекта социальных отношений. Н.В. Пашкова подчеркивает, что смысл экзистенциального риска кроется не в физическом исчезновении всего человеческого, а в утрате человеком рефлексии, без которой он не сможет выстроить свое же пространство, воздействуя на общество творчеством, открытиями, интеллектуальной деятельностью. С таким риском связаны факторы высоких скоростей, стирания грани между вымышленным и реальным, влияния виртуальной среды на социализацию человека [Пашкова 2023], что может привести к кризису прежних идентичностей, зарождению специфических сообществ людей, существующих благодаря компьютерным технологиям и свободному обмену информацией [Соколов 2012]. При этом сегодня существует и значительный корпус работ, в которых анализируются не отдаленные риски, а те социальные проблемы цифрового общества, которые могут обостриться из-за внедрения технологий ИИ. Так, Э.В. Талапина пишет о рисках некачественных, небезопасных результатов, предвзятости; деградации существующих социальных связей; вторжения интеллектуальных систем в частную жизнь; отказа от автономии личности при использовании ИИ прогнозов и классификаций; непонимания человеком высокомерных корреляций, практикуемых в машинном обучении [Талапина 2021]. Схожие риски (распад социальных связей, непредсказуемость, сбои и ошибки интеллектуальных систем, ненадежные результаты, проблемы с ответственностью, конфиденциальностью информации и др.) анализирует И.Н. Романова, добавляя к этому перечню риски в военном плане, потерю суверенитета, потерю контроля над экономикой страны, манипулирование политическими системами [Романова 2021]. Правда, последнее замечание автор не поясняет. Авторы, анализирующие кейсы создания персонализованной рекламы и психологических портретов Cambridge Analytica, предупреждают, что алгоритмы могут использоваться для усугубления поляризации мнений, политической предвзятости, создания манипулятивной, сфабрикованной информации, усиления эмоционального контента, подмены дискуссий, ставя тем самым саму демократию под угрозу [Цвык, Цвык 2022; Nemitz 2018]. П. Немитц связывает риски ИИ с описываемым им феноменом digital power concentration (концентрации цифровой власти). Данный феномен Немитц фиксирует на основе четырех трендов, являющихся, по его мнению, источниками цифровой власти у цифровых корпоративных медиаигроков: а) накопление денег у этого типа корпораций, способных влиять на политику и общество; б) воздействие корпораций на инфраструктуру общественного дискурса; в) использование корпорациями персональной информации людей и технологий профилирования; г) доминирование корпораций в разработках в сфере ИИ [Nemitz 2018]. Об опасности политико-пропагандистского манипулирования свидетельствуют и анализируемые в научной литературе факты попыток перепрограммирования (Microsoft Tay, BabyQ, Xiao Bing) [Xu 2018]; сбора и использования поведенческих данных посредством машинного обучения; ориентации сообщений на восприимчивых граждан; усиления и установления повестки дня посредством политических ботов; обработки естественного языка для понимания настроений масс; использования фейков, созданных на базе ИИ [Horowitz 2018]. При этом современные исследователи часто четко не отделяют риски формирования социума круглосуточной слежки, сбора данных о гражданской активности от угроз возникновения новых практик управления массовым сознанием [Ulbricht 2020]. Также существует мнение, что ИИ может усилить существующие проблемы в правовой области, сосредоточив внимание специалистов на юридическом формализме в ущерб содержательной стороне права. Сочувствие, сопереживание и творчество, чрезвычайно важные в юридическом процессе, редуцируются и теряют свою силу. Из-за того что у ИИ нет эмоций, страха, может происходить дегуманизация права [Овчинников 2020]. В свою очередь Д.С. Жуков напоминает, что население России и западных стран уже существует в среде, которая перенасыщена рейтинговыми системами. Это актуализирует риски ускользания рейтинговых систем, использующих принципы ИИ, от публичного контроля. Вместе с тем, условно обозначая «приложения ИИ в политической сфере» как «политический искусственный интеллект», Жуков подчеркивает, что его создание не обязательно связано только с угрозами. Напротив, игнорирование создания политического ИИ ставит вопрос о выживании политической системы страны [Жуков 2020]. Цифровой суверенитет в эпоху активного внедрения интеллектуальных систем действительно также является важным вызовом для государства, его политической системы и политического режима. Неслучайно современные государства начинают выбирать стратегии противостояния тотальному вмешательству цифровых техногигантов в свою внутреннюю и внешнюю политику, в том числе создавая национальные цифровые государственные экосистемы [Гавриленко 2023]. Тем более, что интеллектуальные машины, создаваемые цифровыми корпорациями, не только анализируют цифровые следы человека, но и способны подталкивать его к принятию нужного интересантам решения, используя разработки в области поведенческих реакций. Также встречаются исследования [Kubler 2017], переосмысливающие работу Дж. Чейни-Липпольда «Новая алгоритмическая идентичность» (2011 г.) и труд Д. Маккуиллана «Алгоритмическое чрезвычайное положение» (2015 г.). Здесь применение современных алгоритмов рассматривается как вызов онтологическим моделям традиционных государственных субъектов. Такие системы могут создаваться как в качестве цифрового продолжения жестких форм государственной власти, так и для применения более мягких технологий наблюдения или биополитики. Таким образом, мы можем констатировать формирование в последние годы научного дискурса на фоне разворачивающихся процессов интенсивного развития технологий ИИ, в рамках которого фиксируются потенциальные социальнополитические угрозы, риски и вызовы ключевым сферам жизнедеятельности современных государств и обществ, которые требуют их определения, глубокого рассмотрения и анализа современными специалистами и учеными в области политических наук. Обращение авторов статьи к экспертной проверке позволило дать свой ответ на поставленный в работе исследовательский вопрос о характере и степени влияния процессов внедрения технологий ИИ и нейросетевых алгоритмов на современное пространство социально-политических коммуникаций, определив при этом актуальные угрозы, вызовы и риски, связанные с данными процессами. Методология исследования В настоящей работе в качестве основного исследовательского вопроса выступает проблематика характера и степени влияния процессов внедрения технологий ИИ и нейросетевых алгоритмов в современное пространство социальнополитических коммуникаций. В целях определения аргументированного ответа на поставленный исследовательский вопрос авторами работы был применен метод дискурс-анализа научных источников по теме исследования. Для более глубокого понимания основных линий напряжения, связанных с обозначенной проблематикой, авторами настоящей работы в сентябреноябре 2023 г. было проведено экспертное исследование «Искусственный интеллект и нейросетевые технологии как инструмент современных социальнополитических коммуникаций: риски, угрозы и вызовы», в рамках которого приняли участие 28 экспертов из России, Белоруссии, Сербии, Казахстана, США, Кыргызстана и Узбекистана. Комплексирование полученных в ходе исследования ответов позволило оценить степень и характер влияния ИИ и нейросетевых алгоритмов на современные социально-политические коммуникации, а также определить ключевые риски, угрозы и вызовы для современного государства и общества, связанные с применением ИИ и нейросетевых технологий. Результаты экспертного исследования Оценка степени и характера влияния искусственного интеллекта и нейросетевых технологий на процессы современных социально-политических коммуникаций В целом эксперты весьма высоко оценили степени влияния ИИ и нейросетевых технологий на дизайн и содержание процессов современных социальнополитических коммуникаций. На рис. 1 можно увидеть распределение экспертных баллов по данному вопросу, средний уровень оценки степени влияния - 7 баллов. Рис. 1. Оценка степени влияния искусственного интеллекта и нейросетевых технологий на современные социальнополитические коммуникации (количественная оценка от 1 до 10 баллов: 1 - абсолютное отсутствие влияния, 10 - максимальное влияние) Источник: составлено авторами. Figure 1. Assessing the degree of influence of artificial intelligence and neural network technologies on contemporary socio-political communications (quantitative score from 1 to 10 points: 1 - no effect at all, 10 - maximum influence) Source: compiled by the authors. Одновременно с этим, помимо количественной оценки, в рамках исследования экспертам было предложено содержательно оценить влияние искусственного интеллекта и нейросетевых технологий на современные социально-политические коммуникации. На рис. 2 представлено распределение качественных экспертных оценок такого влияния. Примечательно, что никто из опрошенных экспертов не отметил однозначно положительное влияние «умных» технологий на пространство социальнополитических коммуникаций. Преимущественно участники исследования отмечали скорее отрицательный и однозначно отрицательный характер влияния. Рис. 2. Оценка характера влияния искусственного интеллекта и нейросетевых технологии на современные социально-политические коммуникации Источник: составлено авторами. Figure 1. Assessing the nature of the influence of artificial intelligence and neural network technologies on contemporary socio-political communications Source: compiled by the authors. Содержательные аспекты влияния искусственного интеллекта и нейросетевых технологий на процессы современных социально-политических коммуникаций Как отмечает большинство участников исследования, являясь лишь инструментами, в настоящее время по-прежнему используемыми и контролируемыми человеком, ИИ и нейросетевые алгоритмы сами по себе не обладают конструктивным или деструктивным потенциалом (по крайней мере, до тех пор, пока не будет создан и внедрен сильный ИИ (ASI)). В связи с этим на сегодняшний день более уместно говорить о конструктивных и деструктивных потенциалах, связанных с применением людьми соответствующих технологических инструментов. При этом эксперты отметили в своих ответах, что на данный момент деструктивный потенциал «умных» технологий и алгоритмов в социальнополитической сфере во многом превосходит выгоды от их использования, и для изменения ситуации необходимо проактивное формирование комплекса взвешенных политических решений, направленных на противодействие негативному влиянию ИИ и нейросетей в ключевых сферах жизнедеятельности современного государства и общества при сохранении конструктивного потенциала. В целом по итогам комплексирования ответов участников исследования мы можем выделить ключевые направления, в рамках которых ИИ и нейросетевые алгоритмы могут влиять на современные социально-политические коммуникации, формируя соответствующие риски, угрозы и вызовы современному государству и обществу. 1. Автоматизированный анализ Big Data и утрата приватности. ИИ позволяет оперативно обрабатывать и анализировать большие объемы данных, в том числе оставляемые пользователями в процессах их цифровой активности многообразные персональные данные и «цифровые следы». Это помогает политическим акторам адаптировать свои коммуникационные стратегии и агитационнопропагандистский контент под ожидания, убеждения, представления целевых аудиторий, позволяя вырабатывать персонализированные политики по отношению к значительному множеству отдельных людей и их групп. Кроме того, данный инструментальный потенциал работы с Big Data делает ИИ пригодным для выявления специфики мышления представителей целевых аудиторий, а также мониторинга и прогнозирования политического поведения как на массовом, так и на групповом и индивидуальном уровнях. Такой мониторинговый и прогностический потенциал значительным образом повышает эффективность деятельности заинтересованных акторов по достижению своих политических целей на основе получаемой аналитической информации. Как отметил один из экспертов, «виртуализация и имитация социально-политической коммуникации „сжимается“ до майнинга социальных данных, построения на их основе прогнозных продуктов и принятия алгоритмических решений». Неслучайно многие работы современных ученых посвящены именно данной проблематике. Особо отметим в этой связи концепцию капитализма слежения (надзорного капитализма), разработанную Ш. Зубофф [Зубофф 2022], в которой указывается, что бенефициары, стоящие за процессами сбора, обработки, хранения и использования цифровых массивов больших данных знают о гражданах больше, чем граждане сами о себе. В подобной ситуации использование автоматизированных алгоритмов обработки Big Data на основе технологий ИИ лишь усугубляет проблему, позволяя в автоматическом режиме осуществлять сбор, обработку, анализ и использование персональной информации в интересах владельцев таких алгоритмов, которыми могут, помимо государств, технологических компаний, политических сил, выступать террористические, радикальные и экстремистские организации. 2. Персонализация контента и формирующее воздействие на массовое сознание. Как уже было показано выше, нейросетевые алгоритмы на основе анализа цифровых следов пользователей обладают потенциалом персонализации и адаптации социально-политического контента к групповым либо индивидуальным предпочтениям и потребностям граждан. Это значительным образом повышает эффективность информационно-коммуникационного воздействия, позволяя оптимизировать коммуникационные стратегии и тактики политических проектов. В результате, по мнению экспертов, уже в ближайшей перспективе мы можем стать свидетелями перехода от таргетинга гомогенных социально-демографических групп к персонификации политики политических субъектов применительно к каждому конкретному человеку или группе граждан. Причем такая персонификация может осуществляться в автоматическом режиме, в рамках которого алгоритмы социальных медиа и поисковых систем, работающие на основе ИИ, самостоятельно определяют, какой контент должен отображаться для каждого пользователя в его новостной ленте или результатах поисковой выдачи. Это существенным образом может повлиять на то, какую информацию аудитория получает, а какой контент остается недоступным и «невидимым» для нее. В целом формирующее воздействие «умных» технологий определяется, по мнению участников исследования, тем, что алгоритмы ИИ и нейросетевые алгоритмы в автоматическом режиме могут при помощи генерации, фильтрации и трансляции социально-политического контента задавать оценки социальнополитических фактов, событий, процессов, явлений, политиков, создавая определенным образом нагруженные и ценностно окрашенные образы, манипулируя поисковой выдачей, участвуя в реализации задач внешнего информационного давления, в том числе на избирательные системы, мобилизуя массовые протестные настроения, устанавливая «правильные» социально-политические ориентиры в политике. К числу рисков следует отнести и редукцию сложности мировоззренческих и ценностно-смысловых систем граждан, деградацию коммуникативных навыков и компетенций общественно-политического взаимодействия. В условиях фильтрации цифровых информационных потоков, алгоритмического создания пузырей фильтров и ограничения видимости контента обычный человек оказывается, по сути, информационно капсулированным, лишенным альтернативных точек зрения, иных мнений, потребляя лишь доминирующий в искусственно созданной информационной повестке контент, пользуясь для оценки социально-политической реальности заранее сгенерированными простыми объяснительными моделями, максимально адаптированными к субъективным особенностям реципиента, специфике его убеждений, ценностей, представлений. В качестве примера можно привести чат-бот Google Bard с ИИ, который на момент написания статьи не давал никаких ответов пользователям о текущей ситуации в Израиле и секторе Газа, полностью блокируя информацию о ситуации1. По сути, в цифровом пространстве все в большей мере внедряется автоматизированное управление информационной повесткой, в рамках которой формируется необходимый общественно-политический дискурс, а также осуществляется навязывание «выгодных» смыслов, проблем, ценностей социально-политического характера, а следовательно, и соответствующих поведенческих моделей. При этом особое внимание в условиях обострения геополитических угроз в современном мире обращают на себя возможности внешнего экстерриториального информационно-коммуникационного воздействия на политическое сознание граждан стран-мишеней со стороны технологически развитых противников. Как отметил в этой связи Президент России В.В. Путин, «западные поисковые системы, как и некоторые генеративные модели, работают зачастую весьма избирательно, ангажированно, не учитывают, а порой - просто игнорируют и „отменяют“ российскую культуру»2. 3. Дезинформация, fake-news и автоматизированная вычислительная пропаганда. Значительное число экспертов, принявших участие в исследовании, указали на такой риск, как использование технологий ИИ и нейросетевых алгоритмов для манипулирования мнением рядовых потребителей цифрового контента. На данный момент анализ актуальной практики применения нейросетевых алгоритмов в процессах генерации социально-политического контента демонстрирует способность создания фейковых текстов, фотоизображений, аудиои видеозаписей, дискредитирующих политических оппонентов. Такой контент имеет значительный потенциал своего применения в кампаниях по дезинформации целевых аудиторий. Как в связи с этим отмечает глава OpenAI Сэм Альтман, «я ожидаю, что ИИ будет способен к сверхчеловеческому убеждению задолго до того, как он превзойдет человека в базовых интеллектуальных способностях»3. По мнению участников исследования, «умные» технологии способны значительным образом искажать социально-политическую реальность, наполняя пространство социально-политических коммуникаций сфабрикованным содержанием и формируя управляемый общественно-политический дискурс. То есть речь идет о широких возможностях автоматизированного деструктивного воздействия на социум и его дезориентации, формирования управляемых 1 Google Bard AI appears to be censoring Israel-Palestine prompt responses. URL: https:// venturebeat.com/ai/google-bard-ai-appears-to-be-censoring-israel-palestine-prompt-responses/ (accessed: 26.11.2023). 2 Путин заявил, что часть западных поисковых систем работают ангажированно. URL: https://tass.ru/politika/19372929 (дата обращения: 26.11.2023). 3 ChatGPT chief warns of some 'superhuman' skills AI could develop. URL: https://www.foxnews. com/us/chatgpt-chief-warns-superhuman-skills-ai-develop (accessed: 24.11.2023). политических коннотаций и общественных запросов, манипулирования общественным мнением при помощи «умных» технологий. И здесь особое внимание эксперты уделяют вопросам использования технологий автоматизированной вычислительной пропаганды в современной практике социально-политических коммуникаций, отмечая при этом, что реалистичные аккаунты цифровых актантов в пространстве социальных медиа, репрезентирующие вымышленных или реальных людей, способные к автоматической генерации и трансляции таргетированного контента на основе предварительного анализа цифровых следов пользователей, могут быть применены в широких масштабах в процессах цифровых коммуникаций, подменяя собой реальных пользователей, обеспечивая продвижение необходимого контента в сознание целевых аудиторий манипулятивно-пропагандистского воздействия. При этом, получая в виде цифровых следов информацию о реакциях пользователей на полученный контент, цифровой алгоритм позволяет (в том числе в автоматическом режиме) на основе анализа пользовательских реакций уточнять, дополнять, трансформировать контент для следующей коммуникационной итерации (и так необходимое число раз), тем самым постоянно увеличивая эффективность информационно-коммуникационного воздействия на целевые аудитории. В результате формируется потенциал реализации такого сценария, в рамках которого манипулятивно-пропагандистский фейк-контент будет доминировать в цифровом пространстве социально-политических коммуникаций как за счет широкого использования маскирующихся под реальных пользователей цифровых актантов, осуществляющих масштабную трансляцию таргетированного фейк-контента на цифровых площадках, так и за счет постоянной подстройки такого контента к особенностям целевых аудиторий на основе алгоритмического использования обратной связи с пользователями в виде их цифровых следов. 4. Транснациональные компании как политические акторы. По мнению участников исследования, контроль над значительным числом общественно значимых цифровых платформ позволяет корпорациям встраиваться в качестве «супер-модератора» в социальные и политические отношения для реализации корпоративных коммерческих, культурных и политических стратегий. Усугубляет ситуацию разработка и использование техногигантами собственных инструментов ИИ и нейросетей. По сути, сегодня сформировалась ситуация, в которой владельцы крупных цифровых платформ в большинстве случаев являются также и владельцами «умных» решений, разрабатываемых ими. Так, компания Google разработала чат-бот с ИИ Bard и нейросеть PaLM2, корпорация Microsoft интегрировала в свои продукты нейросеть Bing (поисковик Bing) и помощника на базе ИИ Copilot (Windows), а также является крупнейшим инвестором Open AI - разработчика нейросети GPT-4 и чат-бота ChatGPT. Нейросеть Meta AI также выступает примером концентрации в руках техногигантов не только цифровых коммуникационных площадок, но и «умных» технологий, которые могут быть использованы в процессах поиска и потребления информации, а также коммуникационных взаимодействий пользователей в пространстве социальных медиа. Кроме того, потенциальные возможности применения политического ИИ Интернет-корпорациями для персонификации манипулятивных воздействий (от рекламных до политических) могут привести к существенному повышению эффективности нелегального и нелегитимного вмешательства корпораций в политические процессы, формирование коллективной и персональной идентичности, трансформацию исторической памяти, формирование образов цифрового будущего. И если общество, организованное в государство, прямо или косвенно (хотя и не всегда в должной мере) посредством государственной машины контролирует наиболее важные аспекты своего существования - такие как применение силы, защита от врагов, обязательность сделок и т.д., то, если сохранятся современные темпы ускоренного развития корпоративного политического ИИ, многие экзистенциальные функции социального управления и самоорганизации могут перейти от государства к Интернет-корпорациям, а население стран может оказаться отсеченным от традиционных источников информации, контролируемых государством. При этом, как отмечают участники исследования, каким бы ни было государство, корпоративное правление всегда будет неизмеримо хуже, так как корпорации неизбираемы, непрозрачны, преследуют частные интересы, находятся преимущественно в юрисдикции США и не разделяют традиционные ценности, присущие современным обществам. Неслучайно, выступая на пленарном заседании конференции AI Journey, Президент России В.В. Путин особо подчеркнул, что «монопольное доминирование подобных чужих разработок в России неприемлемо, опасно и недопустимо»4. 5. Теневизация процессов алгоритмического управления. Тесно связана с предыдущей и такая проблема, как непрозрачность процессов функционирования алгоритмов ИИ и нейросетей, используемых в процессах принятия решений в социально-политической сфере. Говоря об активной алгоритмизации сферы социально-политического управления, следует отметить, что еще в 2006 г. А. Аниш сформулировал концепцию алгократии как власти, основанной и реализуемой на основе автоматизированного использования алгоритмов [Aneesh, 2006]. По мнению участников исследования, сегодня разворачиваются противоречивые и скрытые от социального наблюдения и контроля процессы, связанные с трансформацией смысловых и системообразующих элементов нового властного господства. По сути, современные общества сталкиваются с новой теневой формой принятия и реализации управленческих решений на базе ИИ, системой форм и методов властного господства, распределения ресурсов (энергетических, экономических, силовых и т.д.) и формирования структуры публичных и частных потребностей, прозрачность и объяснимость которых имеют недостаточный уровень. В связи с этим в своем выступлении Президент России В.В. Путин 4 Путин назвал опасной и недопустимой монополию западных платформ в сфере ИИ в РФ. URL: https://tass.ru/politika/19372977 (дата обращения: 26.11.2023). отметил, что «нужно обязательно использовать российские решения в сфере создания надежных, прозрачных и безопасных для человека систем искусственного интеллекта»5. Невозможность спрогнозировать действия ИИ как самостоятельного субъекта принятия решений и действий, отсутствие ясности в алгоритмической логике нейросетей приводят к теневизации процессов алгоритмического управления на основе «умных» технологий, непрозрачности конечных бенефициаров подобных управленческих процессов. Как отмечают эксперты, не вполне понятно, насколько полезными и эффективными для общества будут действия ИИ в социально-политической сфере. Например, широко известная потенциальная предвзятость и ценностная окрашенность алгоритмов может с высокой степенью вероятности приводить к несправедливому с точки зрения общественности принятию решений. Как, например, показал опыт анализа чат-бота ChatGPT, нейросеть имеет политическую предвзятость. Так, широкомасштабное исследование, проведенное Университетом Восточной Англии (Великобритания), показало, что ChatGPT явно симпатизирует левым партиям Великобритании, США и Бразилии6. В свою очередь, ученые из Корнеллского университета по итогам своего исследования определили, что ChatGPT имеет собственные политические воззрения и, например, в 2021 г. нейросеть проголосовала бы за «зеленых» в Германии и Голландии. ChatGPT также предложила ввести узаконенное право на аборты по всему миру7. При этом нейросети и ИИ могут значительно усиливать существующие социальные неравенства и предвзятость в случаях, когда данные, на которых они обучаются, также уже содержат искажения или предвзятости. Кроме того, как отметил один из участников исследования, «если результаты решения ИИ будут восприниматься без должной степени критического осмысления, то появится еще один способ „продавливания“ слабых и малообоснованных решений в авторитарных государствах». В свою очередь, другой эксперт отметил, что «результатом несбалансированного применения систем принятия решений на базе ИИ может стать рост числа ошибок и в конечном итоге либо нерациональное распределение ресурсов, либо, в худшем случае, угроза жизни и безопасности населения». Таким образом, чрезмерное злоупотребление «умными» алгоритмами при принятии решений способно самым негативным образом повлиять на процессы социально-политического развития в современных государствах. 5 Путин назвал опасной и недопустимой монополию западных платформ в сфере ИИ в РФ. URL: https://tass.ru/politika/19372977 (дата обращения: 26.11.2023). 6 ChatGPT DOES have a left-wing bias: Scientists confirm the AI bot's responses favour the Democrats in the US and the Labour Party in the UK. URL: https://www.dailymail.co.uk/sciencetech/ article-12413139/ChatGPT-DOES-left-wing-bias-Scientists-confirm-AI-bots-responses-favourDemocrats-Labour-Party-UK.html (accessed: 26.11.2023). 7 Генеративная постправда: искусственный интеллект направлен против России. URL: https://topwar.ru/214617-generativnaja-postpravda-iskusstvennyj-intellekt-napravlen-protivrossii.html (дата обращения: 26.11.2023). 6. Формирование режимов цифровых автократий. Применение нейросетевых алгоритмов и технологий ИИ расширяет инструментарий государств в области контроля над населением. По мнению ряда участников исследования, в настоящее время «умные» технологии могут активно использоваться автократическими политическими режимами в своих стратегических интересах. При этом формирование режимов цифровой автократии может быть вынужденным. Очевидно, что государству в условиях стремительных технологических трансформаций приходится прилагать серьезные усилия не только в сфере публичного управления, но и в сфере формирования социально-политических представлений, которая является высококонкурентной в силу наличия значительного числа политических акторов нового типа (цифровые корпорации, международные террористические организации и т.д.), способных создавать как внутреннюю, так и внешнюю экстерриториальную конкуренцию государству, подрывая его традиционно монопольное право на генерацию и трансляцию ценностей, идей и смыслов в собственных границах. В таких обстоятельствах государства вынуждены подавлять конкурентные попытки внедрения в сознание населения альтернативных объяснительных моделей реальности, мировоззренческих компонент, ценностей и смыслов, способных разрушить либо трансформировать национальные общественнополитические системы в интересах альтернативных акторов. И такое подавление конкуренции может иметь негативный характер, выражаясь в виде построения режимов цифровой автократии, направленных на защиту собственного пространства и населения от технологических угроз в информационнокоммуникационном пространстве. В связи с этим актуализируется проблема соблюдения баланса между обеспечением безопасности государства и сохранением общественно-политических прав и свобод граждан. В случае смещения баланса в сторону обеспечения безопасности государства возникает ситуация, в которой под предлогом защиты государственнотехнократические элиты способны обеспечить полный контроль над информационно-коммуникационными потоками, элиминацию социальнополитических площадок, каналов и акторов, продвигающих альтернативные идеи и смыслы. И цифровые актанты в таких обстоятельствах могут выступать автономными агентами влияния, обеспечивающими в интересах цифровой автократии монопольную генерацию и трансляцию единственно допустимого контента. Более того, на основе анализа цифровых следов граждан возможно осуществление автоматизированного контроля не только за их политическим поведением, но и за их образом мыслей, политическими настроениями, что позволяет выявлять неугодных и неблагонадежных граждан, представляющих угрозу для стабильного функционирования цифровой автократии, с последующим включением санкционного аппарата. При этом в условиях глобальной цифровизации ключевых сфер функционирования государства и общества применяемые санкции не обязательно могут носить характер физического принуждения. Системы ИИ способны в автоматическом режиме применять по отношению к гражданам санкции, основанные на цифровой депривации личности. Тотальное блокирование цифровых активов и счетов, пропусков, аккаунтов, каналов личной коммуникации и доступа к любой информации позволяет обеспечить «цифровую смерть» человека без необходимости его физического устранения в цифровом обществе. Заключение По итогам проведенного исследования мы можем сделать несколько ключевых выводов. В первую очередь, на основе комплексирования полученных в ходе экспертного опроса оценок следует констатировать значительную степень влияния ИИ и нейросетевых технологий на современные социально-политические коммуникации. При этом на данный момент, согласно мнению подавляющего большинства экспертов, риски, угрозы и вызовы в социально-политической сфере в существенной мере превышают конструктивный потенциал, связанный с внедрением в нее «умных» технологий, что требует комплексной и заблаговременной разработки превентивных механизмов упреждения негативных последствий применения технологий ИИ и нейросетевых алгоритмов в социальнополитической сфере. Кластеризация экспертных мнений участников исследования позволила определить ключевые социально-политические риски, угрозы и вызовы, к числу которых следует отнести автоматизированный сбор и алгоритмический анализ Big Data, приводящие к рискам утраты приватности личности; персонализацию контента и связанный с ней потенциал алгоритмизированного формирующего воздействия на массовое сознание в автоматическом режиме со стороны нейросетевых комплексов и систем, базирующихся на технологиях ИИ; автоматизированную вычислительную пропаганду, осуществляемую при помощи «умных» цифровых актантов, и связанный с ней потенциал проведения манипулятивно-пропагандистских кампаний и реализации социально-политических проектов по дезинформации и искажению реальности, направленных на различные целевые аудитории информационно-коммуникационного воздействия; формирование нового типа политических акторов в лице транснациональных технологических кампаний, обладающих собственными технологическими ресурсами (системами ИИ и нейросетевыми решениями) и способных составить конкуренцию традиционным государствам в социально-политической сфере в процессах реализации своих интересов; теневизацию процессов алгоритмического управления, характеризующуюся предвзятостью, непрозрачностью и отсутствием ясности в алгоритмической логике нейросетей и ИИ, осуществляющих принятие решений в социально-политической сфере; риски формирования режимов цифровых автократий, основанных на автоматизированном слежении и контроле со стороны государства социально-политического пространства коммуникаций при помощи технологий ИИ и нейросетевых алгоритмов. Приведенный спектр рисков, угроз и вызовов в социально-политической сфере, безусловно, не является исчерпывающим и лишь демонстрирует основные опасения экспертов применительно к процессам внедрения технологий ИИинейросетевыхалгоритмоввактуальнуюпрактикусоциально-политических коммуникаций. Тем не менее полученный нами результат позволяет говорить о высокой значимости многостороннего и комплексного изучения специалистами и учеными в области политических наук потенциалов применения «умных» технологий в условиях стремительной цифровизации современного государства и общества.
×

Об авторах

Сергей Владимирович Володенков

Государственный академический университет гуманитарных наук; Московский государственный университет имени М.В. Ломоносова

Email: s.v.cyber@gmail.com
ORCID iD: 0000-0003-2928-6068

доктор политических наук, доцент, главный научный сотрудник научно-проектного отдела Научно-инновационного управления, Государственный академический университет гуманитарных наук, профессор кафедры государственной политики факультета политологии, Московский государственный университет имени М.В. Ломоносова

Москва, Российская Федерация

Сергей Николаевич Федорченко

Государственный академический университет гуманитарных наук; Московский государственный университет имени М.В. Ломоносова

Email: s.n.fedorchenko@mail.ru
ORCID iD: 0000-0001-6563-044X

доктор политических наук, доцент, главный научный сотрудник научно-проектного отдела Научно-инновационного управления, Государственный академический университет гуманитарных наук, доцент кафедры истории и теории политики факультета политологии, Московский государственный университет имени М.В. Ломоносова

Москва, Российская Федерация

Николай Михайлович Печенкин

Государственный академический университет гуманитарных наук; Финансовый университет при Правительстве РФ

Автор, ответственный за переписку.
Email: nick_pechyonkin@mail.ru
ORCID iD: 0000-0002-7846-4847

лаборант, Государственный академический университет гуманитарных наук, научный сотрудник, преподаватель Департамента политологии, Факультет социальных наук и массовых коммуникаций, Финансовый университет при Правительстве РФ

Москва, Российская Федерация

Список литературы

  1. Вислова А.Д. Современные тенденции развития искусственного интеллекта // Известия Кабардино-Балкарского научного центра РАН. 2020. № 2 (94). С. 14-30. http://doi.org/10.35330/1991-6639-2020-2-94-14-30
  2. Гавриленко О.В. Социальные технологии в эпоху «надзорного капитализма»: цифровизация и власть алгоритмов // Вестник Московского университета. Серия 18. Социология и политология. 2023. Т. 29, № 3. С. 145-165. http://doi.org/10.24290/1029-3736-2023-29-3-145-165
  3. Жуков Д.С. Искусственный интеллект для общественно-государственного организма: будущее уже стартовало в Китае // Журнал политических исследований. 2020. Т. 4, № 2. С. 70-79. http://doi.org/10.12737/2587-6295-2020-4-2-70-79
  4. Зубофф Ш. Эпоха надзорного капитализма: битва за человеческое будущее на новых рубежах власти. М.: Издательство Института Гайдара, 2022. 784 с.
  5. Овчинников А.И. Безопасность личности и государства в цифровую эпоху: политико-правовой аспект // Журнал российского права. 2020. № 6. С. 5-21. http://doi.org/10.12737/jrl.2020.064
  6. Пашкова Н.В. Искусственный интеллект как источник «экзистенциального риска»: проблема самоидентификации общества и личности в условиях глобального виртуального пространства // Alma Mater (Вестник высшей школы). 2023. № 8. С. 33-35. http://doi.org/10.20339/AM.08-23.033
  7. Романова И.Н. Внедрение технологий искусственного интеллекта: анализ вероятных рисков и возможных угроз // Материалы Ивановских чтений. 2021. № 4 (35). С. 15-18.
  8. Соколов Ю.И. Глобальные социальные риски высоких технологий XXI века // Проблемы анализа риска. 2012. Т. 9, № 6. С. 4-29
  9. Талапина Э.В. Использование искусственного интеллекта в государственном управлении // Информационное общество. 2021. № 3. С. 16-22. http://doi.org/10.52605/16059921_2021_ 03_16
  10. Цвык В.А., Цвык И.В. Социальные проблемы развития и применения искусственного интеллекта // Вестник Российского университета дружбы народов. Серия: Социология. 2022. Т. 22. № 1. С. 58-69. http://doi.org/10.22363/2313-2272-2022-22-1-58-69
  11. Aneesh A. Virtual Migration: The Programming of Globalization. Duke University Press, 2006.208 p.
  12. Hildebrandt M. Algorithmic regulation and the rule of law // Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 2018. Vol. 376, no. 2128. 20170355. http://doi.org/10.1098/rsta.2017.0355
  13. Horowitz M.C., et al. Artificial intelligence and international security. Washington: Center for a New American Security (CNAS). 2018. URL: https://www.cnas.org/publications/reports/artificial-intelligence-and-international-security (accessed: 26.11.2023).
  14. Kubler K. State of urgency: Surveillance, power, and algorithms in France’s state of emergency // Big Data & Society. 2017. http://doi.org/10.1177/2053951717736338. URL: https://journals.sagepub.com/doi/full/10.1177/2053951717736338 (accessed: 26.11.2023).
  15. Nemitz P. Constitutional democracy and technology in the age of artificial intelligence // Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 2018. Vol. 376, no. 2133. P. 20180089. http://doi.org/10.1098/rsta.2018.0089
  16. Ulbricht L. Scraping the demos. Digitalization, web scraping and the democratic project // Democratization. 2020. Vol. 27. Iss. 3. P. 426-442. http://doi.org/10.1080/13510347.2020.1714595
  17. Xu Y. Programmatic Dreams: Technographic Inquiry into Censorship of Chinese Chatbots // Social Media + Society. 2018. Vol. 4, no. 4. URL: https://journals.sagepub.com/doi/10.1177/2056305118808780 (accessed: 26.11.2023).

© Володенков С.В., Федорченко С.Н., Печенкин Н.М., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах