Милитаризация систем искусственного интеллекта: возможности и угрозы

Обложка

Цитировать

Полный текст

Аннотация

Исследование посвящено осмыслению возможностей и рисков применения искусственного интеллекта в военном деле. Отмечено, что в настоящее время, когда в мире существенно возросла значимость фактора военной силы, технологии искусственного интеллекта рассматриваются в качестве одного из базовых инструментов укрепления потенциала милитаризации. Наряду с другими прорывными новшествами такие системы обретают приоритет в деле создания перспективных образцов вооружения, военной и специальной техники. Условия нарастающей напряженности современного противостояния государств стимулируют беспрецедентное увеличение темпов научно-технических разработок «интеллектуального» оружия, его серийного промышленного производства, испытаний и применения на поле боя. Развитие технологий искусственного интеллекта активно приближает принципиальную трансформацию научно-технической оснащенности оборонной сферы и ведет к возникновению новых тенденций в развитии военного искусства. Анализируя феномен непрозрачности искусственного интеллекта, автор отмечает, что превращение этих систем в подобие черных ящиков значительно затрудняет понимание принципов, алгоритмов, последовательности действий, на основе которых осуществляется принятие заключений, решений и т.п. Такая ситуация влечет за собой невозможность должного контроля адекватности данных, полученных с помощью этих систем, и тем более «автоматического» доверия им. Эти обстоятельства увеличивают потенциальные риски, поскольку применение вооружения, оснащенного платформами искусственного интеллекта, существенно сокращает возможности оператора контролировать ситуацию в районе ведения боевых действий, минимизируя время на осмысление обстановки и принятие стратегического решения. Подобные разработки могут послужить мощнейшим катализатором наступления эпохи следующего технологического уклада, где главным ориентиром провозглашается создание систем сильного (общего) искусственного интеллекта. Главная угроза перехода от роботизации к интеллектуализации вооружений и боевой техники состоит в отстранении человека от принятия решений. В работе отмечается, что вооружение, снабженное искусственным интеллектом, является более опасным в сравнении с традиционными средствами ведения войны из-за скорости и элементов непредсказуемости. С точки зрения автора, выход за рамки четко понимаемых и заданных алгоритмов - это опасность, которую нельзя игнорировать. Цена ошибки, допущенной вследствие неадекватно принятого цифровым сервисом решения, может оказаться неприемлемо высокой.

Полный текст

Введение

Цифровизация как ключевая тенденция развития современного мира в значительной степени стала причиной вступления человечества в эпоху кардинальных перемен и серьезных испытаний. Стремительное внедрение цифровых технологий способствует радикальной трансформации самых различных процессов: производственных, управленческих, экономических, финансовых, образовательных и иных. Степень доступности технологий и вовлеченности в них населения планеты непрерывно растет. Тенденция постепенной замены аналоговой культуры на цифровую вследствие масштабного расширения пространства всемирной паутины не может не впечатлять. Технологии искусственного интеллекта, включающие в себя перспективные компьютерные системы, большие данные, машинное обучение, искусственные нейронные сети, глубокое обучение, автоматизированные системы, робототехнику и пр. [1. C. 182], в последние годы обретают все большую значимость, неуклонно превращаясь в глобальный феномен. Примечательно, что наступление цифровой глобализации, сопровождающееся нарастающей конкуренцией за обладание пальмой первенства в деле контролирования цифровых технологий и ресурсов, происходит на фоне явно выраженного процесса снижения темпов глобализации в сфере экономики, политики и культуры. Возрастающее год от года воздействие цифровой реальности на социум,  широкое использование технологий искусственного интеллекта создали условия для кардинального преобразования мира человека. Вместе с открытием и расширением потенциала новых возможностей цифровая среда порождает целый спектр социогуманитарных проблем, среди которых значатся угрозы безопасности, идентичности, дискриминации, трансформации  способа бытия, восприятия человеком мира и др.

Как известно, эволюция технологий, задействованных в сфере искусственного интеллекта, происходит на протяжении довольно небольшого  по историческим меркам периода – менее восьми десятилетий (с конца  1940-х гг.). С тех пор развитие этого комплексного междисциплинарного направления, изначально возникшего в лоне кибернетики, – одна из самых перспективных научно-технических задач. О ее сложности свидетельствует уже один только тот факт, что единого, общепринятого термина «искусственный интеллект» до сей поры не существует. И всякий раз в каждом конкретном случае специалисты вынуждены формулировать конкретное определение, сообразно специфике и целям разработок, исследований и потенциальных сфер применения этих систем. Исторически сложились два магистральных направления искусственного интеллекта: логический и нейросетевой. Логический (или символьный) базируется «на знаниях, логическом выводе  и имитации человеческих рассуждений. Примеры его – это универсальные  решатели задач, программы, способные на основании аксиом геометрии доказать все множество теорем школьной программы… язык Пролог, экспертные системы и все, что с ними связано: базы знаний, логические модели,  продукционные правила, семантические сети» [2. C. 7]. Нейросетевой (или слабый) искусственный интеллект представляет собой технологии машинного обучения, «основанного на примерах, выявлении смыслов и скрытых закономерностей «по аналогии» (индуктивно)» [2. C. 7]. Стремительное развитие технологических новаций и достижение впечатляющих успехов стало возможным во многом благодаря совершенствованию систем, основанных на сетях глубокого обучения. К настоящему времени реализован целый спектр сложных практических решений: разработка систем компьютерного зрения, распознавания речи, имитация текстов на естественном языке, предиктивная (предсказательная) аналитика, контролирование технологических процессов и управление ими, классификация элементов системы, создание баз знаний  и пр[1]. Решение такого рода задач сегодня подвластно слабому искусственному интеллекту, по сути являющемуся когнитивной технологией, связанной  с анализом и интерпретацией данных.

Проблема непрозрачности функционирования систем  искусственного интеллекта

Движение по технологическим рельсам осуществляется от экспертного обучения систем искусственного интеллекта первого поколения к созданию систем второго поколения, базирующихся на нейросетях глубокого обучения на основе больших данных [3. C. 4]. Важно отметить, что подобные системы при обработке больших объемов данных обладают способностью к самостоятельному извлечению информации и распознаванию определенных закономерностей. Вместе с тем функционирование сетей глубокого обучения обнажило ряд практически важных вопросов, которые в настоящее время крайне затруднительно (а порой и невозможно) снять известными методами. В частности, это слабая способность к генерализации, проблема катастрофического забывания и др. Одной из самых сложнопреодолимых на современном этапе является проблема принципиальной непрозрачности искусственных нейронных сетей. Как отмечают специалисты, «любая классическая нейросетевая модель, обученная на сколь угодно большом объеме данных и дающая сколь угодно точные предсказания, остается черным ящиком и не дает возможности объяснить причины принятия того или иного решения или тем более раскрыть структуру и содержание знаний, полученных ей в процессе обучения»[2]. В этой связи на современном этапе среди специалистов, да и в обществе  в целом, нарастает осознание необходимости поисков решения вопроса  «непрозрачности» функционирования систем искусственного интеллекта. Актуализации данной проблемы способствуют как онтологические вызовы, так и перманентное усложнение и расширение технологических задач. В отечественной «Национальной стратегии развития искусственного интеллекта на период до 2030 года» прозрачность трактуется как «объяснимость работы искусственного интеллекта и процесса достижения им результатов, недискриминационный доступ пользователей продуктов, которые созданы с использованием технологий искусственного интеллекта, к информации о применяемых в этих продуктах алгоритмах работы искусственного интеллекта»[3].  Таким образом, суть феномена непрозрачности заключается в лавинообразно нарастающей неинтерпретируемости, необъяснимости принципов функционирования технологий искусственного интеллекта по мере их совершенствования. Непрерывное усложнение искусственного интеллекта ведет к превращению этих систем в подобие черных ящиков, что значительно затрудняет понимание принципов, алгоритмов, последовательности действий, на основе которых система осуществляет принятие заключений, решений и т.п. И таких примеров сегодня уже описано немало [4. C. 82; 5; 6]. Причем, «даже сами создатели искусственного интеллекта не всегда в состоянии объяснить принципы его работы» [3. C. 5].

Таким образом, современные системы искусственного интеллекта, практикующие обучение и настройку нейросетевых алгоритмов (системы второго поколения), на данном этапе не способны удовлетворить присущую человеку потребность понимания сути происходящих в них процессов. Это влечет за собой невозможность должного контроля адекватности данных, полученных с помощью систем искусственного интеллекта, и тем более «автоматического» доверия им. В высшей степени неосмотрительно полностью полагаться на предлагаемое системой решение какой-либо задачи в случае, если механизм принятия такого решения является неинтерпретируемым для пользователя. Эти обстоятельства влекут за собой рост потенциальных рисков вследствие отсутствия гарантии эффективного, справедливого и главное – безопасного применения этих систем в различных областях жизни современного социума. Особенно остро эта проблема обнажается в связи с нарастающей тенденцией милитаризации искусственного интеллекта.

Специфика современного силового противостояния государств

События последних лет демонстрируют, что революция в военном деле, связанная с разработкой ракетно-ядерных комплексов, постепенно начинает представлять собой преимущественно исторический интерес, поскольку  обладание подобным оружием массового поражения в нынешней ситуации кратного увеличения напряженности вооруженного противоборства, похоже, перестает являться единственным индикатором неоспоримого превосходства на международной арене. Военно-политическое сдерживание, ранее осуществляемое на основе баланса ядерных вооружений, а также осознания неизбежности возмездия и гарантированного уничтожения противника в случае его агрессии, в наши дни уже не выглядит столь надежным фактором безопасности, как прежде, во времена существования СССР. Конфликтное пространство современного мира значительно расширилось. Наряду с этим «силовое противостояние государств приобретает характер гибридной войны, включая «войну через подставных лиц – прокси-войну», санкционное давление, операции в кибернетическом пространстве, информационное противоборство  и ряд других направлений, ранее не свойственных традиционным войнам»  [7. C. 8]. Согласно одному из определений современная гибридная война представляет собой «координированное использование страной-агрессором многочисленных видов (инструментов) насилия, нацеленных на уязвимые места страны-мишени с охватом всего спектра социальных функций для достижения синергетического эффекта и подчинения противника своей воле»  [8. C. 9]. В этой связи в настоящий момент осуществляется напряженный поиск неординарных способов достижения геополитического превосходства, что диктует необходимость расширения и пополнения арсенала гибридной войны и активизирует разработку самых различных средств для ее успешного ведения. Эксперты подчеркивают, что концепция гибридной войны «сама  по себе сформировала новый вид стратегического неядерного сдерживания» [9. C. 26]. В деле создания перспективных образцов вооружения, военной  и специальной техники, наряду с гиперзвуковыми, лазерными, квантовыми  и иными прорывными новшествами, доминирующими направлениями являются автоматизация, цифровизация и роботизация [10. C. 24].

Сферы военного применения систем искусственного интеллекта

К технологиям искусственного интеллекта, используемым сегодня для наступательных киберопераций против критической информационной инфраструктуры стран-оппонентов (компьютерных систем государственной сферы, промышленного, энергетического, транспортного комплексов,  банковского сектора и пр.), а также в качестве воздействия на умы потенциального противника (как средство когнитивного, информационно-психологического воздействия) [11. C. 172–177], активно присоединяются новейшие системы кинетического противостояния. Спектр областей военного применения этих инноваций необычайно широк. Платформы искусственного интеллекта в настоящее время используются в сфере управления повседневной деятельностью войск, поддержания их боевой готовности, военно-инженерного  и строительного дела, а также «для навигации, связи, разведки, наблюдения  и рекогносцировки, разминирования, логистики, обслуживания вооружения и техники, информационной войны, радиоэлектронной борьбы, обучения  и контроля обучения, автоматического распознавания целей, подготовки управленческих решений, программного выведения из строя электрических  и телекоммуникационных сетей противника» [12. C. 80] и пр.

Итак, в XXI веке, когда на планете существенно возросла значимость фактора военной силы, технологии искусственного интеллекта рассматриваются в качестве одного из ключевых инструментов укрепления потенциала милитаризации. Известно, что «на вооружение ряда стран уже приняты системы с элементами искусственного интеллекта, начиная с беспилотных летательных аппаратов, роботов-часовых и заканчивая системами обработки сложной информации» [12. C. 73]. Среди наиболее успешных актуальных научно-исследовательских работ значится создание возможностей автоматического распознавания и сопровождения объектов для роботизированных платформ с последующим автономным принятием решения на уничтожение цели [1. C. 180].

Очевидно, в настоящее время гонка вооружений совершает новый виток, связанный со стремительным переходом в информационно-технологическую сферу, поскольку «в ситуации, когда противоборствующие стороны имеют ударные вооружения, дающие возможность несколько раз полностью уничтожить противника, соревноваться дальше в их совершенствовании не имеет смысла» [13. C. 41]. Семимильные шаги в развитии этого комплексного междисциплинарного научно-технологического направления способствуют тому, что на смену гонке ядерных вооружений идет гонка искусственного интеллекта, победитель в которой, как предполагается, сможет обеспечить себе возможность глобального доминирования в системе зарождающегося нового  мирового порядка. Согласно прогнозам аналитиков, неоспоримое преимущество лидера будет обеспечено тем, что «мощь искусственного интеллекта  может купировать любые интеллектуально-технологические прорывы других центров многополярного мира и канализировать развитие государств»  [14. C. 109]. В перспективах военного планирования просматриваются  вызовы формирующейся новой реальности. Наличие планов широкомасштабного внедрения искусственного интеллекта в системы вооружений и управления передовых держав мира свидетельствует о том, что «в будущих вооруженных конфликтах в среднесрочной перспективе центр тяжести переместится на противоборство систем управления средствами поражения, управления и разведки» [15. C. 84]. Кардинально трансформируется представление о батальном искусстве: предполагается, что в новой военной парадигме «применение живой силы и наземных группировок войск станут не потенциальным преимуществом, а большим недостатком» [13. C. 41]. Кроме того, «применение искусственного интеллекта позволит разорвать связь между численностью населения и возможностями экономики государства, с одной стороны, и боеспособностью вооруженных сил – с другой» [13. C. 41].

Восприятие искусственного интеллекта как ценного и весьма эффективного инструмента военной мощи порождает не просто серьезную конкуренцию, но ожесточенное соперничество между ключевыми мировыми центрами силы за достижение превосходства в этой области. Условия нарастающей напряженности современного противостояния стимулируют беспрецедентное увеличение темпов научно-технических разработок «интеллектуального» оружия, его серийного промышленного производства, испытаний и применения на поле боя. В частности, документ под названием «Инновационная оборонная инициатива США» содержит план перехода к «Третьей стратегии компенсации (СК-3), призванной обеспечить их военное доминирование в мире путем широкомасштабного использования искусственного интеллекта в системах вооружений» [13. C. 41]. Также известно, что в рамках реализации концепции «Многосферные операции» Пентагон наращивает усилия в деле объединения информационных систем вооруженных сил США с целью обеспечения эффективного управления подразделениями, находящимися в любой точке мира. Предполагается, что применение технологий искусственного интеллекта предоставит возможность «получить информационное превосходство над противником на театре военных действий путем сокращения времени на доведение информации до требуемых потребителей, конкретных средств поражения – оптимально расположенных по отношению к объекту воздействия, а также ее использования в системе поддержки принятия решений как боевых, так и обеспечивающих подразделений» [16. C. 134]. Российские специалисты также активно содействуют снабжению вооруженных сил автоматизированными системами военного назначения: «существуют разработки, позволяющие рассматривать элементы искусственного интеллекта  некоторых систем вооружения, способные сопрягать их со средствами управления, разведки и навигации» [17. C. 27]. В свою очередь, Китай, наращивая военные возможности, амбициозно намерен в обозримом будущем (к 2030 г.) обрести мировое инновационное лидерство в сфере применения искусственного интеллекта [18. C. 150].

Риски военного применения искусственных интеллектуальных систем

По-видимому, масштаб грядущего преобразующего воздействия цифровых платформ на военную сферу столь велик, что сегодня это трудно даже себе представить. Сложившаяся ситуация демонстрирует важность интенсивного, тщательного и всестороннего изучения этих технологий с целью использования их преимуществ, а также насущную необходимость выявления исходящих от них потенциальных опасностей. Как это часто происходит  в сфере новых технологий, польза от их применения формулируется очень четко и внятно. Гораздо сложнее бывает предвидеть возможные риски. Прежде всего, стоит подчеркнуть принципиальное отличие систем искусственного интеллекта, применяемых в интересах обороноспособности государства, от тех, что работают «в мирных целях»: эти комплексы неминуемо ориентированы на «именно причинение вреда живой силе и технике противника, иной заданной цели. Либо они опосредованно связаны с вышеуказанной функцией причинения вреда. Вред, причиняемый ими, возникает, как правило, не случайно, не в результате форс-мажора, а целенаправленно в результате их применения по назначению» [12. C. 78–79]. Во-вторых, развитие столь разнообразных прикладных технологий активно приближает принципиальную трансформацию научно-технической оснащенности оборонной сферы и ведет к возникновению новых тенденций в развитии военного искусства.  Существует необходимость четкого различения понятий «роботизированные системы», «автоматизированные системы управления» и «системы с использованием искусственного интеллекта». Как констатирует президент Российской академии ракетных и артиллерийских наук, генерал-майор запаса, профессор В.М. Буренок, «основные отличия интеллектуализации по отношению к автоматизации – это реализация способности компьютера принимать решения в условиях значительной неопределенности, на основе разнородной и неполной информации, часто меняющихся ситуаций. Большое значение имеет также самообучаемость и адаптивность как способность системы искусственного интеллекта самостоятельно совершенствовать заложенное в нее программное обеспечение, в том числе осуществлять самопрограммирование в ситуациях, реакция на которые алгоритмически не предусмотрена» [19. C. 107].

В этой связи на передний план выдвигаются риски военного применения искусственного интеллекта, заключающиеся в принципиальном изменении стратегической и тактической сфер путем создания кибероружия, автономных систем вооружения, ядерного командования и контроля, милитаризации космоса, сбора разведывательной информации и пр.[4] [14. C. 111]. Существенным является тот факт, что такие системы (в подавляющем большинстве  случаев) не разрабатываются непосредственно «в недрах» научно-исследовательских структур силового блока, а интегрируются – как в новые, так и в уже имеющиеся образцы военной техники [12. C. 74]. И как следствие – в мышлении людей в погонах неизбежно существует определенный пробел, который «затрудняет понимание сути и принципов использования искусственного  интеллекта в качестве оружия» [20. C. 229]. И это вполне объяснимо, ведь применение вооружения, оснащенного платформами искусственного интеллекта, существенно сокращает возможности оператора контролировать ситуацию в районе ведения боевых действий, поскольку критично минимизирует время на осмысление обстановки и принятие стратегического решения. Кроме того, логика принятия решений алгоритмами искусственного интеллекта может остаться за гранью человеческого понимания из-за несопоставимости масштабов и уровня сложности работы машины. Это означает, что  автономия военнослужащего значительно сокращается. Соответственно, вооружение, снабженное искусственным интеллектом, является более опасным в сравнении с традиционными средствами ведения войны из-за скорости и элементов непредсказуемости. Цена ошибки, допущенной вследствие неадекватно принятого цифровым сервисом решения, может оказаться неприемлемо, запредельно высокой.

Сведения из доступных источников указывают на то, что эксперты по  вооружению, как правило, с очень большой осторожностью оценивают перспективы использования искусственных интеллектуальных систем, наделенных возможностью принимать самостоятельные решения, в военных целях, поскольку полагают, что на данном историческом этапе ответственно гарантировать безошибочное, безопасное и предсказуемое функционирование таких платформ невозможно. Известно, что гражданские и военные специалисты США проявляют «сдержанность в отношении автономных систем  вооружения (Lethal autonomous weapons systems – LAWS). Это отражается  в предубеждении в американском обществе против автономии искусственного интеллекта в целом, и конкретно – против автономной летальности, что приводит к обязательному присутствию человека при использовании интеллектуальных систем вооружения)» [20. C. 233]. Отечественные военные эксперты, анализируя расширение спектра возможностей для развития военной сферы, также осознают вероятность и весьма высокую цену ошибки в функционировании искусственной системы. Специалисты отмечают, что «основная проблема применения искусственного интеллекта в автоматизированных системах управления связана с риском неоднозначной интерпретации смысла тех данных, большие объемы которых поступают от различных информационных источников как текстовых, так и данных от средств видео-, аудиозаписи, радиолокации, гидроакустики, защиты, охраны, наблюдения, военной разведки и других технических средств. Риск ошибочной интерпретации  возникает во всех случаях, когда эта информация неструктурирована или  слабоструктурирована» [2. C. 10]. Иная ситуация складывается в Китае, где и военные специалисты, и политическое руководство склонны к выражению однозначной и решительной поддержки в деле использования достижений искусственного интеллекта в различных видах вооружения [20. C. 229]. Поднебесная уже достигла больших успехов в разработке высокотехнологичных проектов и уверенно следует в фарватере развития военно-гражданской интеграции, ориентируясь на то, что «достижения в области больших данных,  гибридного и роевого интеллекта, автоматизированного принятия решений, автономных беспилотных систем и интеллектуальной робототехники будут содействовать повышению ее военного потенциала» [18. C. 151].

Масштабы исследований, проводимых в лабораториях, разбросанных по всему миру, количество специалистов и бюджеты, выделяемые на разработки новых прикладных технологий, способствуют быстрому продвижению к созданию платформ третьего поколения (так называемого объяснимого искусственного интеллекта), когда система окажется способной «интерпретировать и объяснить алгоритм принятия решений, даже если он имеет природу «черного ящика»» [3. C. 4–5]. В рамках дальнейшего прогресса предполагается, что в 30-х годах возможно создание платформ четвертого поколения, которые будут оснащены самообучающимися системами, а в 40-х годах –  пятого поколения («с воображением, которые больше не будут полагаться на людей в обучении» [3. C. 4–5]). Мнения на сей счет разнятся, и насколько выполнимой окажется реализация подобных проектов, покажет время.

Современная гонка вооружений ориентирована на «переход от автоматизации к интеллектуализации, т.е. внедрение высокоинтеллектуальных средств вооруженной борьбы» [8. C. 41]. При этом, несомненно, имплементация цифровых платформ в системы вооружений создает не только новые возможности, но и новые угрозы. Сталкиваясь с проблемами непрозрачности  алгоритмов искусственного интеллекта и угрозами неадекватного принятия решений цифровым сервисом, необходимо полномасштабное осознание цены ошибки. Однако в течение нескольких последних лет уже более четырех  десятков государств (Великобритания, Соединенные Штаты Америки, Российская Федерация, Китай, Южная Корея, Израиль и др.) активно включились в программу создания робототехнических систем, обладающих способностью вести боевые действия без непосредственного человеческого участия [21. C. 5]. Подобные разработки могут стать мощнейшим катализатором наступления эпохи следующего технологического уклада, где главным ориентиром провозглашается создание систем сильного (общего) искусственного интеллекта. Памятуя, что «колыбелью» многих технологий была именно военная сфера, нельзя исключить, что уже в обозримом будущем обеспечивать военное преимущество над противником окажутся способны полностью автономные системы искусственного интеллекта, что приведет к возникновению абсолютно новой конфигурации как на театре военных действий, так  и в военном искусстве в целом.

Представляется, что главная угроза перехода от роботизации к интеллектуализации вооружений и боевой техники состоит в отстранении человека  от принятия решений. Выход за рамки четко понимаемых и заданных алгоритмов – это опасность, которую нельзя игнорировать: «необходимо иметь  в виду, что в условиях, когда техническим устройствам предоставлена возможность давать оценку развитию событий в ходе военных конфликтов,  существует вероятность непреднамеренного увеличения количества  незначительных алгоритмических сбоев, которые будут способны привести к непредвиденным и полностью спровоцированным со стороны искусственного интеллекта … провалам сдерживания. При этом с того момента, как нападающие, так и обороняющиеся начнут полагаться на искусственный интеллект для управления поведением, сами системы станут взаимодействовать друг с другом уникальными (и непредвиденными) способами» [22. C. 78]. Это свидетельствует о необходимости и своевременности фундаментального научного рассмотрения вопросов разработки и практического внедрения  новых систем вооружения и техники с использованием цифровых платформ.

Заключение

Внедрение новых технологических решений, риски милитаризации  искусственного интеллекта пересекаются с опасениями относительно неопределенности перед онтологической неизвестностью будущего, осознание  которых многократно возрастает на современном этапе, во время геополитических кризисов и социальной нестабильности. Масштабы и реальные угрозы современного инновационного процесса в условиях беспрецедентного обострения межгосударственных отношений и нарастания военного противостояния ставят мировое сообщество перед неотложной необходимостью  поисков здравого смысла и признания приоритетности разработки новых глобальных подходов к решению задач обеспечения безопасности.

 

 

1 Колонин А. Следующие цели в гонке ИИ – объяснимость и обучаемость. 2020. 5 февраля. Режим доступа: https://russiancouncil.ru/analytics-and-comments/analytics/sleduyushchie-tseli-v-gonke-ii-obyasnimost-i-obuchaemost/ (дата обращения: 14.05.2024).

2 Колонин А. Следующие цели в гонке ИИ – объяснимость и обучаемость. 2020. 5 февраля. Режим доступа: https://russiancouncil.ru/analytics-and-comments/analytics/sleduyushchie-tseli-v-gonke-ii-obyasnimost-i-obuchaemost/ (дата обращения: 14.05.2024).

3 Национальная стратегия развития искусственного интеллекта на период до 2030 года. Режим доступа: https://ai.gov.ru/national-strategy/ (дата обращения: 14.05.2024).

4 Волков А. Искусственный интеллект и международные отношения: социальные аспекты и влияние на международную безопасность. 31.01.2024. Режим доступа: https://russiancouncil.ru/blogs/a-volkov/iskusstvennyy-intellekt-i-mezhdunarodnye-otnosheniya-sotsialnye-aspekt/?sphrase_id=140769943 (дата обращения: 13.05.2024).

×

Об авторах

Екатерина Николаевна Гнатик

Российский университет дружбы народов

Автор, ответственный за переписку.
Email: gnatik-en@rudn.ru
ORCID iD: 0000-0003-0745-5019

доктор философских наук, профессор, профессор, кафедра онтологии и теории познания, факультет гуманитарных и социальных наук

Российская Федерация, 117198, Москва, ул. Миклухо-Маклая, д. 6

Список литературы

  1. Виловатых А.В. Искусственный интеллект как фактор военной политики будущего // Проблемы национальной стратегии. 2019. Т. 1. № 52. С. 177-192.
  2. Протасов А.А., Ширманов А.В., Радоманов С.И. Основные направления использования искусственного интеллекта в автоматизированных системах управления // Вооружение и экономика. 2023. Т. 4. № 66. С. 5-16.
  3. Аверкин А.Н. Объяснимый искусственный интеллект как часть искусственного интеллекта третьего поколения // Речевые технологии. 2023. № 1. С. 4-10.
  4. Черешнева И.А. Искусственный интеллект в государственном управлении и транспарентность: европейский опыт // Государственная служба. 2022. № 2. С. 80-87. https://doi.org/10.22394/2070-8378-2022-24-2-80-87
  5. Ananny M., Crawford K. Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability // New Media & Society. 2018. Vol. 20. N 3. P. 973-989.
  6. Hagendorff T. The Ethics of AI Ethics: An Evaluation of Guidelines // Minds & Machines. 2020. Vol. 30. P. 99-120.
  7. Зарудницкий В.Б. Тенденции изменения системы обеспечения военной безопасности государства в условиях новой геополитической карты мира // Военная мысль. 2024. № 2. С. 6-14.
  8. Бартош А.А. Туман гибридной войны: Неопределенности и риски конфликтов XXI века. М.: Горячая линия - Телеком, 2019.
  9. Бартош А.А. Технологический суверенитет России как важный фактор победы в мировой гибридной войне // Военная мысль. 2023. № 8. С. 16-32.
  10. Ильницкий А.М. Ментальная война России // Военная мысль. 2021. № 8. С. 19-33.
  11. Гнатик Е.Н. Цифровая трансформация социотехнологической реальности: проблемы и риски // Вестник Российского университета дружбы народов. Серия: Философия. 2024. Т. 28. № 1. С. 168-180. https://doi.org/10.22363/2313-2302-2024-28-1-168-180
  12. Глухов Е.А. О правовом регулировании применения искусственного интеллекта в военной сфере // Военная мысль. 2022. № 8. С. 73-85.
  13. Уланов А.С. Прогностическая оценка тенденций развития средств вооруженной борьбы и способов их применения в войнах будущего // Военная мысль. 2022. № 8. С. 37-50.
  14. Бирюков А.В. К вопросу о влиянии научно-технического прогресса на международные отношения в цифровую эпоху // Международная аналитика. 2015. № 3. С. 103-115. https://doi.org/10.46272/2587-8476-2015-0-3-103-115
  15. Ишечкин Б.Б., Ишечкин В.Б., Евтихов С.В. Перспективы применения искусственного интеллекта в управлении войсками // Военная мысль. 2023. № 8. С. 79-84.
  16. Голубенко Н.Ю., Вавринюк С.А., Иванов А.А. Развитие автоматизированных систем боевого управления вооруженных сил США // Военная мысль. 2023. № 8. С. 134-145.
  17. Сержантов А.В., Смоловый А.В., Терентьев И.А. Трансформация содержания войны: контуры военных конфликтов будущего // Военная мысль. 2022. № 6. С. 19-30.
  18. Комиссина И.Н. Современное состояние и перспективы развития технологий искусственного интеллекта в Китае // Проблемы национальной стратегии. 2019. Т. 1. № 52. С. 137-160.
  19. Буренок В.М. Искусственный интеллект в военном противостоянии будущего // Военная мысль. 2021. № 4. С. 106-112.
  20. Изюмов Д.Б., Кондратюк Е.Л. Анализ различий в подходах США и Китая к применению искусственного интеллекта в системах вооружения // Инноватика и экспертиза: научные труды. 2022. Т. 2. № 34. С. 228-239.
  21. Фаличев О., Галанин Ю. Железные контрактники // Военно-промышленный курьер. Общероссийская еженедельная газета. 2018. Т. 38. № 751.
  22. Протасов А.А., Ширманов А.В., Радоманов С.И. Технологические разработки в области искусственного интеллекта и сдерживание потенциального агрессора // Военная мысль. 2023. № 11. С. 68-82.

© Гнатик Е.Н., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах