Review of the monograph: Atabekov, A.R., Yastrebov, O.A. (2024) Strategic positioning of artificial intelligence in public administration and legal regulation practice. Moscow, UNITY-DANA Publ.
- Authors: Alferova E.V.1
-
Affiliations:
- Institute of Scientific Information on Social Sciences of the Russian Academy of Sciences
- Issue: Vol 30, No 1 (2026)
- Pages: 192-200
- Section: REVIEWS. DISCUSSION FORUMS
- URL: https://journals.rudn.ru/law/article/view/49411
- DOI: https://doi.org/10.22363/2313-2337-2026-30-1-192-200
- EDN: https://elibrary.ru/RROKQY
- ID: 49411
Cite item
Full Text
Abstract
-
Full Text
В Фундаментальную библиотеку ИНИОН РАН ежедневно приходят сотни книг по разным направлениям социальных и гуманитарных наук, и среди этого потока новой литературы сотрудники отдела правоведения профессионально выделяют те, которые заслуживают особого внимания в силу актуальности их тематики, жанра, содержания и авторского состава. Ряд лет приоритетными направлениями исследования в отделе является тема правового регулирования искусственного интеллекта (ИИ) и, соответственно, анализ зарубежного и российского опыта применения цифровых технологий, в том числе ИИ, в юриспруденции[1]. Поэтому, когда среди многочисленных новых юридических книг в октябре 2025 года была представлена для ознакомления читателям монография А.Р. Атабекова, д-ра юрид. наук, канд. экон. наук, доцента Российского университета дружбы народов имени Патриса Лумумбы (РУДН), и О.А. Ястребова, д-ра юрид. наук, д-ра экон. наук, профессора, ректора РУДН, она сразу привлекла наше внимание прежде всего основательностью своего названия – «Стратегическое позиционирование искусственного интеллекта…». Такое название явно обязывало авторов не выбирать легкого пути в исследовании темы, а ориентироваться на многоаспектный и комплексный научный правовой анализ не только точек зрения ученых, но и содержания многочисленных нормативных правовых актов и различных моделей регулирования ИИ в сфере публичного управления в зарубежных странах и России. И это у них получилось: важным достоинством данной монографии является то, что по научно-исследовательским целям и задачам, перечисленным авторами во введении (с. 11–12), она выходит далеко за пределы тематики и позволяет узнать не только конкретное законодательство, регулирующее использование ИИ в публичной сфере, и правоприменительную практику многих стран, но погрузиться в концептуальные подходы к пониманию категории «искусственный интеллект» с позиций различных правовых систем и представителей научного юридического сообщества и рассмотреть ключевые теоретико-правовые проблемы в области интеграции ИИ и философско-этические вопросы развития ИИ в правовом поле. Этим многоаспектным вопросам авторы отвели главу 1. В следующих, ключевых главах 2 и 3 их внимание сосредоточено на правовом регулировании применения ИИ в публичном секторе государств, относящихся в различным правовым системам – романо-германской, англосаксонской, а также социалистической, религиозной и традиционной системах права, а также на сущности и содержательной характеристике правового регулирования применения ИИ в публичной сфере. Речь идет об административном регулировании ИИ как объекта правоотношений в области стандартизации, сертификации и саморегулирования и через конструкцию юридического, физического лица или агента, о правосубъектности ИИ, его использовании в судебной деятельности. В главе 4 рассматриваются базовые подходы (краткосрочный, среднесрочный и долгосрочный периоды) к интеграции ИИ в сферу публичных отношений в России. Интерес здесь может привлечь также сравнительно-правовая оценка действующих и предлагаемых учеными подходов к регулированию ИИ.
Ценно то, что во всех главах авторы опираются на многочисленные научные источники и, анализируя их, выделяют наиболее перспективные или проблемные подходы исследования ИИ для целей правового регулирования данной технологии. Так, при рассмотрении вопроса этико-философской сущности ИИ в главе 1, А.Р. Атабеков и О.А. Ястребов концентрируются на трех блоках дискуссионных вопросов, связанных: во-первых, с реально существующими и используемыми технологиями ИИ в человеческом обществе; во-вторых, с тем, как люди представляют себе эти технологии; в-третьих, с будущим технологий ИИ (с. 64). Обсуждается проблема этических опасений, возникающих в связи со сбором данных о людях без их ведома. Среди этих опасений – опасения по поводу неприкосновенности частной жизни и опасения, что крупные технологические компании могут манипулировать этой информацией. Данные, собранные в Интернете, например о пользователях социальных сетей, могут стать угрозой личной автономии на индивидуальном уровне. Автоматизированные системы поддержки принятия решений используют данные, содержащие «человеческие предубеждения», а системы ИИ их воспроизводят, иногда даже усиливают негативные человеческие предубеждения, связанные с полом, расовой идентичностью и сексуальной ориентацией. Другая проблема, которую видят авторы, связана с системами ИИ, принимающими автоматизированное решение или дающими рекомендации. Она проистекает из непрозрачности ИИ. В связи с этим научное сообщество неоднозначно подходит к решению этой проблемы. Одни ученые предлагают закрепить в законе обязанность объяснять решения ИИ, другие – сомневаются в необходимости предоставления человеку объяснений, если технология дает эффективный результат для администратора или пользователя системы (с. 64–67).
Еще одна сложная проблема, на которую обращают внимание авторы, – взаимодействие человека с роботом. Суть ее авторы видят в том, что робот, предназначенный для выполнения социальных функций (медицина, здравоохранение, образование и др.), может породить угрозу человеческому достоинству, ввести в заблуждение. В связи с этим возникает вопрос: могут ли роботы символизировать морально значимые свойства или способности, стать социальными партнерами и хорошими друзьями? Другой важный вопрос, рассматриваемый авторами, – отношение системы к человеку-контролеру. Обусловлен он тем, что чем быстрее развивается ИИ, чем больше он становится автономным и расширяет свою роль в процедурах принятия решений в различных областях, тем более важной становится необходимость контроля со стороны человека из-за непредсказуемости высокоинтеллектуальных систем. В связи с этим авторы пытаются ответить на следующие философские вопросы: какое именно вмешательство человека должно быть гарантировано; осуществимо ли это технологически; должен ли человеческий контроль присутствовать на всех этапах эволюции ИИ; каковы цели человеческого присутствия в ИИ-системах? (с. 59–69).
Исходя из прочитанного в главе 1 книги, можно заключить, что А.Р. Атабеков и О.А. Ястребов дали всесторонний обзор отечественных и зарубежных подходов к определению ИИ, его сущностных характеристик, преимуществ и недостатков в контексте административного права и философско-этических воззрений, и согласиться с ними в том, что природа ИИ в контексте готовности его к внедрению в публичную сферу изучается недостаточно системно, поскольку восприятие ИИ на уровне доктринальной и философского-юридической мысли еще формируется и активно развивается (с. 70). И это действительно так: только в конце 2024 и в 2025 гг. вышли в свет ряд интересных книг[2]. Однако, правы авторы также в том, что многие вопросы правового регулирования применения ИИ и условий его существования остаются нерешенными. Причиной этого, по их мнению, является отставание теории права от научно-технического прогресса, в том числе отсутствие правовой регламентации сферы человеческого взаимодействия с ИИ, проблемы безопасности, морали и ответственности (с. 73).
Значительное место в книге (гл. 2) уделено выявлению причин такого упущения и исследованию направлений развития законодательства о внедрении ИИ в различных сферах государственного управления, а также сравнительному анализу моделей правового регулирования использования ИИ в публичном секторе государств, относящихся к различным правовым системам. Показательно то, что для проведения такого анализа авторами были выбраны страны с наиболее высоким рейтингом Глобального индекса конкурентоспособности талантов (GTCI), каждая из которых относится к определенной правовой системе. Среди стран романо-германской правовой семьи авторами выбраны для исследования Япония, Германия, Франция, Нидерланды, Россия и Эстония. В области англосаксонской системы права – США, Великобритания, Новая Зеландия, Канада, Сингапур. В области религиозной правовой системы – Израиль, ОАЭ и Саудовская Аравия. Социалистическая система права представлена Китаем, традиционная – ЮАР. И такое страноведческое правовое обозрение зарубежного опыта регулирования ИИ предпринимается впервые в российском правоведении А.Р. Атабековым и О.А. Ястребовым.
При этом важно подчеркнуть: авторы рассматривают не только имеющиеся подходы к правовому регулированию в сфере ИИ в разных странах, но прежде всего концентрируют внимание на национальных стратегиях на перспективу. Отмечается, что на сегодняшний день, в мировом сообществе существует два основных подхода к правовому регулирующих ИИ: легалистский, суть которого заключается в использовании уже разработанной правовой системы в качестве основы и формировании списка проблемных вопросов, связанных с эксплуатацией роботов, с конфиденциальностью и ответственностью, и технологический, предусматривающий «движение» от технологических изменений: появление беспилотников, роботов – личных помощников и т.д. Приверженцы технологического подхода считают, что право вторично. Выделяется также и комбинированный подход, который разделяет этику применения ИИ и робототехники (с. 76–77).
Исходя из этих подходов, А.Р. Атабеков и О.А. Ястребов исследовали понятийно-правовое содержание ИИ в аспекте его регулирования в публичной сфере в вышеуказанных странах, а также провели сравнительно-функциональное сравнение субъектов правотворчества, регулирующих ИИ в изучаемой сфере, и объектов правоприменения. В результате глубокого и комплексного анализа были выявлены как общие тенденции, практики, перспективы, а также особенности подходов правового регулирования ИИ в публичной сфере разных стран относящихся к разным правовым системам. Обзор концептуальных подходов к определению статуса ИИ в странах различных правовых семей, позволил авторам сделать вывод, что на сегодняшний день в разных государствах отсутствует единый подход к определению правосубъектности ИИ как смешанном типе субъекта и объекта права. Некоторые эксперты из этих стран судят о статусе ИИ как о смешанном типе субъекта и объекта права, другие заявляют о потребности формирования особой концепции электронного лица для ИИ, также есть сторонники мнения, что невозможно присвоить ИИ статус правового объекта (с. 181).
Весьма интересной представляется позиция авторов по вопросу формирования конструкции и понятия электронного лица публичного права, учитывающих такие характеристики ИИ, как ее многокомпонентную техническую природу, охватывающую большой спектр правоотношений и условия порядка применения ИИ, ответственность различных субъектов правоотношений; высокую скорость обработки данных и возможную автономность ИИ, создающую риски для общества, и др. Электронное лицо определяется учеными как технология ИИ, созданная человеком, под которой понимается система, использующая когнитивные функции человека (или иные функции, превышающие возможности человеческого интеллекта, и предоставляющая результат, сопоставимый с результатом, реализуемым человеческим мозгом в необходимые пользователю технологии ИИ сроки. Под результатом понимаются рекомендации, прогнозы или решения, а также действия, выполняемые ИИ как агентом воли пользователя, которые не противоречат базовым конституционным правам человека и безопасности пользователя или адресата действия, выполняемые ИИ автономно (с. 183).
После детального анализа доктринальных и правовых (на опыте стран, относящихся к разным правовым семьям) авторы переходят к изучению сложных вопросов стандартизации и сертификации ИИ с учетом обеспечения надежности и безопасности для общества технологий ИИ, а также адаптации правовых подходов к осуществлению указанных процедур в отношении ИИ.
Примечательно то, что рассмотрение проблем административного регулирования ИИ как объекта правоотношений в области стандартизации, сертификации и саморегулирования начинается с обзора наднациональных и национальных стандартов ИИ и описания структуры деятельности международных организаций в области стандартизации и их рабочих групп. Так, анализируя такой документ, разработанный Международной организацией по стандартизации (ISO), как «Информационные технологии» (ISO/IEC 38507:2022), в котором прописаны базовые принципы использования ИИ, авторы подчеркивают, что указанный стандарт обязует организацию иметь представление об используемом ИИ в контексте его выгоды для организации и понимание соотношения потенциальных рисков причинения вреда заинтересованным сторонам, динамичности изменения рисков, связанных с ИИ, и необходимости их оперативного устранения. Кроме того, принципиально важно, что в своем исследовании А.Р. Атабеков и О.А. Ястребов не ограничиваются констатацией этого положения указанного документа ISO, а отмечают потенциальные негативные последствия от использования ИИ:
– потенциальный риск монополизации рынков за счет устранения конкурентов, не использующих ИИ;
– принятие результатов обработки ИИ без должной верификации и, как следствие, потенциальная предвзятость в суждениях, ошибки и сопутствующий вред организации или государству;
– несоответствие скорости обучения ИИ и «ручного» контроля со стороны человека;
– влияние ИИ на человеческий капитал, потенциальная дискриминация фундаментальных прав работников, диспропорция кадровых ресурсов ввиду увольнения или переквалификации;
– репутационные издержки в случае неконтролируемой деятельности (с. 191–192).
По мнению авторов, с учетом непредсказуемых положительных и отрицательных эффектов от применения ИИ необходимо зафиксировать влияющие на трансграничное состояние самой технологии сложности определения границ для стандартизации ИИ. Речь идет здесь, во-первых, о многокомпонентности и взаимосвязанности систем ИИ, затрудняющей мониторинг такого количества элементов и, как следствие, формирование доказательственной базы в случае выявления потенциальных нарушений закона; во-вторых, о непредсказуемых результатах, которые могут возникнуть со временем, из-за непрерывного развития и адаптации систем ИИ; в-третьих, об автономности в принятии решений и непрозрачности алгоритма. Именно эти факторы, на взгляд ученых, влияют на оценку деятельности ИИ (с.193).
В связи с этим А.Р. Атабеков и О.А. Ястребов сосредоточиваются на ключевых задачах, которые необходимо решить организациям, занимающимся разработкой стандартов в области ИИ. Среди них: определение критичности риска влияния ИИ на человека (в том числе на его права и свободы); формирование единого подхода к проведению испытаний и определение конкретного контура для технологий с элементами ИИ; разработка специальных стандартов, отражающих предметные особенности конкретной системы ИИ и требующих единого понимания для всех участников процесса стандартизации и минимизации факторов дублирования и разночтений (там же). В качестве положительных примеров правового решения вопроса стандартизации авторы внимательно анализируют Регламент (Закон ЕС об ИИ), устанавливающий согласованные правила в отношении ИИ 2021 г., Белую книгу в области стандартизации ИИ для Китая и Программу по стандартизации по направлению «Искусственный интеллект» на период 2021–2024 гг., разработанную Росстандартом совместно с Минэкономразвития России (с. 193–200).
Интерес представляют выводы авторов об особенностях стандартизации в разных странах и на международном уровне: 1) в целом стандартизация (в ряде случаев сертификация) деятельности, связанной с технологиями ИИ, является приоритетной задачей для большинства стран мира. Соответствующий приоритет представлен как на национальном, так и наднациональном уровне; 2) сам механизм стандартизации ИИ нуждается в создании единых правил использования технологий ИИ (с. 200–201).
Но этим авторы не ограничиваются и вносят значимые предложения относительно содержательных подходов к ИИ в различных сферах публичных отношений: в целях системного регулирования ИИ учитывать стадийность разработки технологии и уровень ее готовности. Стадийность регулирования предлагается закреплять на горизонте краткосрочного (1–3 года), среднесрочного (3–5 лет) и долгосрочного (5–10 лет) планирования на различные комплексы и подходы в регулировании ИИ в различных отраслях права и специализированной направленности применения ИИ, а также скорости развития самой технологии ИИ и готовности органов власти (с. 269).
И далее в монографии в привязке к этим стадиям регулирования ИИ А.Р. Атабеков и О.А. Ястребов фокусируются на базовых подходах к интеграции ИИ в сферу публичных отношений в России на краткосрочный, среднесрочный и долгосрочный периоды и формулируют креативные предложения. Их много и выделить наиболее востребованные на каждом этапе планирования сложно. Перечислим некоторые. На этапе краткосрочного регулирования ИИ предлагается:
1) для выполнения текущих задач в публичной сфере сформировать различные уровни допуска к информации и зафиксировать их в соответствующих нормативных правовых актах;
2) внести изменения в АПК и КАС РФ (гл. 29 и 33 соответственно) в порядок участия ИИ в упрощенном рассмотрении споров сторон и предусмотреть возможности формирования особых сегментов правоотношений в сфере административного судебного процесса;
3) в контексте участия технологии ИИ в гражданском, административном и ином процессе в части правосубъектности и базовых правовых условий для ее формирования рекомендуется: разработчиков, пользователей, продавцов и иных лиц, участвующих в функционировании и применении ИИ, именовать «электронное лицо»; профильным органам власти разработать (в рамках поручения Правительства РФ) требования к уставному капиталу указанного лица в разрезе сегментов рынка и учредителя; создание профильной саморегулируемой организации (СРО), которая объединит разносторонние направленные технологии и компании в целях формирования соответствующих инициатив по рынку и др. (с. 297–300).
Кроме того, на этом этапе предлагается законодательно закрепить, возможно в отдельном законе/кодексе, идентифицирующий признак лиц, задействованных в разработке ИИ, обозначив их лицами, использующими технологию ИИ как систему, использующую когнитивные функции человека созданную человека (с. 369).
На этапе среднесрочного планирования регулирования ИИ в целях формирования позитивного облика технологий ИИ для общества рекомендуется в рамках открытой базы данных предусмотреть использование принципов социального рейтинга; создание единых систем стандартизации ИИ; определить дальнейшие подходы к устойчивости правовой конструкции по регулированию ИИ в публичной сфере; разработать индексов: надежности технологии ИИ, их защищенности; удовлетворенности технологией ИИ и оценки ИИ (с. 301–306). На основании собранных данных рекомендуется законодательно зафиксировать три индекса: индекс ИИ-зрелости органа власти; индекс эффективности обработки обращений ИИ органом власти; индекса технической устойчивости (с. 305–306, 309–310).
В рамках среднесрочного регулирования ИИ для лиц, выступающих разработчиками, пользователями, продавцами и иными лицами, участвующими в применении ИИ, предлагается:
– законодательное закрепление ведения закрытого реестра в отношении указанных лиц за профильным органом власти (Минцифра России), наделив это Министерство следующими возможностями: вести реестр лучших практик по применению ИИ; рекомендовать разработчиков ИИ в процедуре отбора поставщиков, и др. (с. 323);
– дополнить нормы АПК и КАС РФ правилами отвода ИИ от использования в судебных процедурах;
– разработать систему сертификации для ИИ, провести аудит более 200 стандартов и др. (с. 324–325).
На этапе долгосрочного планирования интеграции ИИ в сферу публичных отношений в России авторы предлагают: 1) выделить три категории лиц с учетом готовности технологии ИИ и ее целевого назначения (узкоспециализированный ИИ, базовый ИИ и искусственный сверхинтеллект). Соответственно этим целевым назначениям, в Законе о регулировании ИИ определить лиц, выступающих разработчиками, пользователями, продавцами и иными лицами, участвующими в функционировании и применении ИИ в сфере публично управления (с. 327); 2) применять предиктивные методы для пресечения административных правонарушений. Например, в контексте контрольно-надзорной функции органов государственного управления провести эксперимент и изучить правонарушения, связанные с ДТП, в сфере финансовых рынков и налогообложения, общественного порядка и соблюдения порядка управления (с. 331–332). С учетом формирования полностью автономных систем принятия решений в контексте представления публичных услуг и выполнения контрольно-надзорных мероприятий авторы считают целесообразным дополнить законодательство и наделить дополнительными функциями контроля использования ИИ ФСБ России, ФСО России, Минобороны России и Минцифры России (с. 345); 3) создать алгометрический суд, функционирующий под контролем человека и предусмотреть в АПК и КАС РФ возможности потенциального истца выбирать порядок рассмотрения дела коллегиальным составом суда, где один из судей представлен ИИ, или присяжными заседателями при участии ИИ (с. 373); 4) закрепить за ограниченным кругом участников рынка ИИ – системообразующими компаниями и профильными ведомствами в сфере безопасности и обороноспособности страны – ответственность за подготовку редакции стандарта деятельности сверх ИИ, провести сертификацию базового ИИ в целях выделения его отдельной правосубъектностью и др. (с. 374).
Таким образом, проведенный А.Р. Атабековым и О.А. Ястребовым комплексное исследование стратегического позиционирования ИИ в сфере публичного управления в России и зарубежных странах, заслуживает самой высокой оценки с научно-теоретической и практической точек зрения. Рецензируемая монография обогащает правовую науку, государствоведение и управление, практических юристов и правоведов, специалистов в области ИИ-технологий новыми знаниями о внедрении технологий ИИ в различные сферы публичных отношений.
1 См.: Государство и право в новой цифровой реальности: монография / под общ ред. проф. Д.А. Ловцова и проф. И.А. Умновой-Конюховой. М. : ИНИОН РАН, 2020. 259 с.; Право, цифровые технологии и искусственный интеллект: сб. ст. / отв. ред. Е.В. Алферова. М. : ИНИОН РАН, 2021. 267 с.; Научное технологическое развитие, цифровизация, искусственный интеллект и право (тема номера) // Социальные и гуманитарные науки: отечественная и зарубежная литература : ИАЖ. Сер. 4 : Государство и право. 2024. № 4. С 3-97; Правовое регулирование безопасного и надежного искусственного интеллекта (тема номера) // Социальные и гуманитарные науки: отечественная и зарубежная литература: ИАЖ. Сер. 4 : Государство и право. 2025. № 3. 209 с., и др.
2 См.: Kumar, S., Verma, A.K. & Mirza, A. (2024) Digital Transformation, Artificial Intelligence and Society: Opportunities and Challenges (Frontiers of Artificial Intelligence, Ethics and Multidisciplinary Applications). 218 рp.; Artificial Intelligence in Application. Legal Aspects, Application Potentials and Use Scenarios (2024) / eds. T. Barton, Ch. Müller. 197 pp.; Digital Governance: Confronting the Challenges Posed by Artificial Intelligence (2024) / ed. K. Prifti, E. Demir, J. Krämer, K. Heine, E. Stamhuis. 310 pp.; Marwala T. (2024) The Balancing Problem in the Governance of Artificial Intelligence. 251 рp.; Burgess P. (2024) AI and the Rule of Law. The Necessary Evolution of a Concept. 200 рp.; Legal Aspects of Autonomous Systems: A Comparative Approach (2024) / ed. by Dário Moura Vicente, Rui Soares Pereira, Ana Alves Leal. 382 pp.; AI and Law: How Automation Is Changing the Law (2025) / eds. Aurelia TamòLarrieux, Clement Guitton, Simon Mayer. 195 pp.; The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence (2025) / ed. by Nathalie A. Smuha. 472 рp., and others.
About the authors
Elena V. Alferova
Institute of Scientific Information on Social Sciences of the Russian Academy of Sciences
Author for correspondence.
Email: ealf@list.ru
ORCID iD: 0000-0003-1630-1070
SPIN-code: 8179-7888
Candidate of Legal Sciences, Head of the Department of Jurisprudence, Leading Researcher
51/21 Nahimovskij avenue, Moscow, 117418, Russian FederationReferences
Supplementary files








