Artificial Intelligence in Nuclear Energy: Legal Challenges and International Cooperation in the Search of Approaches to Regulation

Cover Page

Cite item

Full Text

Abstract

The application of artificial intelligence (AI) holds the potential for revolutionary advancements in civil nuclear energy. However, this necessitates establishing a framework to ensure the safe and reliable use of AI technologies within the nuclear sector. Law plays a crucial role in adapting existing regulation and developing innovative approaches, concepts and legal structures. This study aims to identify potential threats from the use of AI in nuclear energy and the associated legal challenges, including those related to the nuclear non-proliferation regime and the IAEA safeguards system. It also examines the liability regime for nuclear damage caused by AI at nuclear power plants, insurance considerations, and the activities of the IAEA and other international organizations in exploring AI’s potential to accelerate technological development in nuclear energy and to establish a suitable international regulatory environment. The study further characterizes the current state of international cooperation in this area. The research methodology incorporates formal-legal, comparative-legal, and historical methods, as well as forecasting techniques. The study concludes that the development of principles and standards for the safe use of AI in nuclear energy will initially occur through cooperation among individual states, where the formation of a political space is already underway. Therefore, it is crucial for Russia to leverage this experience and create opportunities for collective cooperation (for example, within BRICS and BRICS+) to regulate AI in the nuclear energy sector.

Full Text

Введение 

В настоящее время атомная энергетика, получив признание в качестве чистой, надежной, безопасной и доступной, находится на этапе небывалого подъема. При этом осуществление возложенных на нее надежд предполагает быстрый и крупномасштабный рост – на Конференции ООН по изменению климата (COP-28)1 были поставлены амбициозные задачи по утроению глобальных ядерных энергетических мощностей к 2050 году. Достижение таких показателей невозможно без повышения ее конкурентоспособности на энергетическом рынке, однако применяемая в отрасли бизнес-модель не дает оснований для таких прогнозов.

 Путь к достижению экономической устойчивости отрасли лежит через ее «преобразование» посредством внедрения инновационных технологий, в том числе и искусственного интеллекта (далее – ИИ). Применение технологий ИИ в рассматриваемой области может помочь упростить сложные проблемы, обеспечить более быстрое и эффективное принятие обоснованных решений, открыв широкие возможности для развития отрасли, укрепить ядерную и радиационную безопасность, принести  экологические и социальные выгоды и способствовать реализации целей устойчивого развития. В свою очередь, интеграция двух технологий сулит повышение производительности критически важных инфраструктур, улучшение качества и безопасности эксплуатации АЭС, сокращение сроков и стоимости строительства, и, что немаловажно, обеспечение притока инвестиций.

В условиях стремительного возрастания интереса отрасли к ИИ требуется не только и не столько преодоление барьеров, стоящих на пути внедрения этой технологии, сколько создание основы, необходимой для обеспечения безопасного и надежного применения ИИ в атомной энергетике. И важную роль в части адаптации существующего регулирования и разработки новых подходов, концепций и правовых конструкций призвано сыграть право.

Правовые вызовы, обусловленные применением ИИ в атомной энергетике 

Потенциально возможные угрозы применения ИИ в атомной энергетике порождают целый спектр правовых вопросов, связанных с данными технологиями. В их числе риски, обусловленные двойным назначением рассматриваемых технологий, вероятным несоответствием правового обеспечения ядерной, физической и информационной (компьютерной) безопасности дополнительным потенциальным угрозам в областях, сопряженных с ИИ, вопросы ответственности за ядерный ущерб, причиненный ИИ на АЭС, страхования и др.

Как любая не до конца изученная инновационная технология, ИИ может быть использован не только в мирных, но и в военных целях, «поскольку любой алгоритм, который может обеспечить важные экономические применения, может также привести к использованию систем ядерного оружия преднамеренно или нет» (Anastassov, 2021), поставив тем самым под угрозу ядерную стратегическую стабильность  и вызвав эскалацию ядерного конфликта (Geis & Lohn, 2018). Ограниченность современных знаний о возможностях использования ИИ в системах ядерного вооружения ставит мировое сообщество перед дилеммой между применимостью в существующем виде традиционных концепций национальной и международной безопасности, степенью соответствия международно-правового регулирования влиянию милитаризации ИИ и необходимостью разработки концепции ИИ в современном международном гуманитарном праве, а также создания особого международно-правового  режима, регулирующего возможное использование ИИ в ядерной сфере, на основе консенсуса по принципиальным вопросам пропорциональности, человечности и контроля.

На стыке международного гуманитарного и международного атомного права не следует недооценивать потенциал ИИ применительно к режиму ядерного нераспространения и системе гарантий МАГАТЭ. Возможности обнаружения с помощью ИИ признаков испытаний ядерного оружия, запрещенных в соответствии с Договором о всеобъемлющем запрещении ядерных испытаний (ДВЗЯИ), повышения качества данных, предоставляемых государствам, и их анализа, укрепления доверия международному мониторингу и самому режиму, повышения эффективности мер технических проверок, проводимых МАГАТЭ в соответствии с Договором о нераспространении ядерного оружия (ДНЯО) и соглашениями о гарантиях, имеют и обратную сторону. А именно: правовые, этические и технические проблемы, связанные,  в первую очередь, с конфиденциальностью и безопасностью данных, антидискриминационной политикой, прозрачностью, предвзятостью и доверием (Anastassov, 2021; Siserman-Gray et al, 2023). Правовая наука в качестве путей преодоления указанных проблем предлагает до решения «непростой задачи» по созданию совершенно новых правовых норм, требующей согласия всех заинтересованных сторон, определить,  являются ли необходимыми специальные правила для обращения к ИИ в целях гарантий, проведения проверок и иных применений и задач (Siserman-Gray еt al., 2023), интерпретировать и актуализировать существующие нормы, применяемые в новых обстоятельствах (Anastassov, 2021), уделить «немедленное внимание» таким нормативным и правовым областям, как интеллектуальная собственность (авторское право и патенты), антидискриминационная политика, защита и обмен данных, надежность и прозрачность, конфиденциальность и наблюдение (Siserman-Gray еt al., 2023). Ключевая роль в этом процессе должна принадлежать МАГАТЭ (вплоть  до пересмотра политики и задач, направленных на постепенное укрепление системы гарантий от необходимых до всеобъемлющих протокольных процедур) (Karim & Muhammad-Sukki, 2023) для недопущения причинения потенциального ущерба  как собственным институциональным интересам, так и интересам его государств-членов.

В свою очередь, применение ИИ на АЭС способно обеспечить революционный прорыв в атомной энергетике (Yavuz & Şentürk Lüle, 2022; Suman, 2021).  Однако преодоление существующих в настоящее время барьеров, таких как сложности в обеспечении интерпретируемости, достоверности и надежности мер  производительности для ИИ, проблемы и риски в области кибербезопасности,  а также оценки уязвимости системы в случае, например, неисправности источника данных или преднамеренной фальсификации и многие другие, требуют разработки нормативно-правового регулирования применения ИИ, начиная с инженерного этапа проектирования АЭС.[2] А в связи с тем, что для применения ИИ на АЭС потребуется одобрение регулирующих органов, то на первый план выходит потребность в разработке и внедрении общих и гибких принципов и рекомендаций, касающихся наиболее общих проблем, возникающих при получении одобрения, и проведение анализа влияния технологий ИИ на существующие рекомендации и стандарты  МАГАТЭ, а в перспективе постоянный мониторинг на предмет устаревания стандартов и их валидация[3].

Кроме того, применение ИИ на АЭС бросает вызов и существующему режиму ответственности за ядерный ущерб, в случае если причиной последнего стала данная технология. Потеря, повреждение или уничтожение данных из-за использования  алгоритмов ИИ и машинного обучения, что может сделать АЭС уязвимой; трудности в отслеживании причины повреждения на АЭС, которая включает систему ИИ в принятие операционных решений; невозможность включить все операции ИИ в договорные обязательства между оператором АЭС и производителем технологий ИИ; невозможность установить причинно-следственную связь между правонарушением и невыполнением ответчиком своих обязательств из за сложности технологий, как это происходит в ходе традиционного процесса рассмотрения дел об ответственности, – далеко неполный перечень причин для пересмотра существующих режимов ядерной ответственности. И если выдвигаемые в юридической литературе (Karim & Muhammad-Sukki, 2023; Trout, 2024; Fitzpatrick, 2019; Lambrini & Kougias, 2019) предложения о введении строгой ответственности оператора при условии дополнения ее режимом ответственности за продукт с целью гарантировать безопасность продукта и ввести ответственность для производителей ИИ и страхованием технологий с чрезвычайно высоким риском для возмещения будущего ущерба представляются дискуссионными, то нельзя не согласиться с тем, что вопросы ответственности и страхования за ядерный ущерб, причиненный ИИ, требуют проактивного  регулирования.

Деятельность МАГАТЭ 

Так как обеспечение соблюдения мер безопасности и защиты в области мирного использования атомной энергии и содействие передаче соответствующих технологий и навыков государствам по всему миру входит в задачи МАГАТЭ, то и вопросы использования потенциала ИИ для ускорения технологического развития во многих областях атомной энергетики, а также формирования международной регулирующей среды для этих технологий являются в настоящее время одними из самых актуальных в повестке Агентства.

Пристальное внимание данной проблематике уделяется МАГАТЭ начиная с 2020 года, когда на полях 64-й очередной сессии Генеральной ассамблеи МАГАТЭ состоялось «первое в истории совещание МАГАТЭ по использованию искусственного интеллекта для ядерных применений», а в 2021 году в рамках Глобального саммита МСЭ «AI for Good» сессия «ИИ для атомной энергии». В поддержку потенциального применения ИИ на АЭС МАГАТЭ был опубликован доклад «Искусственный интеллект для ускорения ядерных приложений, науки и технологий»[4], запланированы разработка и выпуск ряда публикаций, посвященных: общим соображениям и рекомендациям по разработке и внедрению решений на основе ИИ для ядерной промышленности; методам и показателям ИИ; успешному внедрению ИИ; конкурентоспособным тестовым упражнениям и ИИ, сохраняющим конфиденциальность, а также публикации, фиксирующие достигнутый регулирующими органами всех  заинтересованных государств-членов консенсус по согласованию нормативно- правовой базы, специфичной для каждой страны.

Продолжением этой работы стало создание в 2023 году рабочих групп по этическим, нормативным и техническим аспектам внедрения ИИ в рамках Международной сети инноваций для поддержки действующих атомных электростанций (ISOP)[5]. А в марте 2024 года в рамках уже 3-го Технического совещания состоялось завершение работы над новым документом МАГАТЭ серии TECDOC «Развертывание решений на основе искусственного интеллекта для ядерной энергетики: соображения и рекомендации», содержащем рекомендации по внедрению ИИ на АЭС для заинтересованных государств-членов, а также обсуждение проекта нового отчета МАГАТЭ «Развертывание решений искусственного интеллекта для ядерной энергетики:  соображения и руководство»[6].

Формирование регуляторной среды в атомной сфере требует проведения полевых испытаний, осуществляемых МАГАТЭ в рамках скоординированных исследовательских проектов (ПКИ), результаты которых распространяются среди всех  государств-членов посредством научных и технических публикаций. Примерами таковых являются ПКИ «Искусственный интеллект для ускорения исследований и разработок в области термоядерного синтеза»[7], нацеленный на ускорение исследований и разработок в области термоядерного синтеза с использованием ИИ посредством создания платформы и межсообщественной сети для инноваций и партнерства; ПКИ «Внедрение инновационных цифровых технологий для эффективного вывода  из эксплуатации ядерных объектов»[8], призванный способствовать укреплению международного сотрудничества и оказанию поддержки странам в планировании и осуществлении операций по выводу из эксплуатации; ПКИ «Технологии, повышающие конкурентоспособность и раннее развертывание малых модульных реакторов»[9] для выявления таких технологий и согласования изменения кодов и стандартов для них при необходимости и др.

Кроме того, стремление МАГАТЭ расширить использование текущих и будущих инноваций ИИ нашло реализацию в создании платформы обмена знаниями  «AI for Atoms»[10]. Также поддержке программной деятельности МАГАТЭ и обмену знаниями о достижениях и инновациях в области ИИ для атомной энергетики призвано способствовать и создание центров сотрудничества по ИИ для атомной энергетики. Первыми в числе таковых стали Центр научной информации при Университете Пердью в США и Центр плазменной науки и термоядерного синтеза Массачусетского технологического института[11].

Анализ деятельности МАГАТЭ в рассматриваемой области позволяет констатировать, что универсальное регулирование технологии ИИ в атомной энергетике в настоящее время находится в самом начале своего становления. Подход МАГАТЭ  к его формированию можно охарактеризовать как комплексный, охватывающий этическое, нормативное, правовое и техническое регулирование, что, в свою очередь, может значительно облегчить регулирование в области ИИ с учетом контекста, предотвратив непредвиденные проблемы и этически сложные сценарии, которые  невозможно предсказать, только лишь правовыми нормами.

Конвергенция искусственного интеллекта и атомных технологий в силу присущих им риска и неопределенности может как усугубить существующие, так и породить новые проблемы, создав угрозу человеку и окружающей среде, сопоставимую с глобальными проблемами современности. МАГАТЭ исходит из приоритета этики при разработке, внедрении и применении ИИ в области использования атомной энергии как основы ответственного управления в данной сфере, без чего невозможно принятие социально приемлемых решений[12].

На основе сопоставления этических принципов, отраженных в «Рекомендации ЮНЕСКО об этических аспектах ИИ»[13], и принципов ядерной этики была начата работа над «Этикой приложений и технологий ИИ в ядерной науке, приложениях  и технологиях» (ENAI). Такие проблемные области, как трансдисциплинарность  и междисциплинарность исследований; ответственный подход к исследованиям  и инновациям; взаимодействие всех заинтересованных сторон, в том числе общественности; этические вопросы приемлемости риска, обеспечения значимого человеческого контроля и человеческого надзора и взаимодополняемости принятия решений человеком и машиной; разработка методологий, поддерживающих мониторинг производительности ядерных систем с ИИ; смягчение проблем социальной и экологической справедливости; повышение этической осведомленности и грамотности относительно этих технологий; подотчетность и ответственность за результаты этих технологий выступают ключевым контекстом ENAI. И по мере развития  технологий их перечень будет только расширяться.

В этой же плоскости лежит и вопрос о поисках путей дальнейшего регулирования ИИ в атомной энергетике: формировании «мягкого» или «жесткого» регулирования, пропорций их сочетания, а также сроках перехода к таковому. Переходом к надежной и гибкой правовой основе, способной своевременно изменяться по мере развития технологий, при переходе от этического регулирования к нормативно-правовому, является стандартизация и сертификация (Lizikova, 2020). Это справедливо и для внедрения технологий ИИ в атомную энергетику14, где способом преодоления сложности демонстрации соответствия нормативным стандартам при развертывании решений ИИ, обусловленных быстро меняющимся характером технологий ИИ и временными задержками, вызванными работой по систематизации передовой практики в этих технологиях, является создание специализированных подкомитетов ISO/IEC, работающих над продвижением технологий ИИ от пилотных исследований к широкому внедрению.

В условиях отсутствия в настоящее время системы руководящих принципов и стандартов для безопасной разработки и использования технологии ИИ в отрасли, звучат предложения о возможности применения в переходный период существующей нормативной базы МАГАТЭ для регулирования ИИ при последующей ее адаптации (Cha, 2024).

Наряду с необходимостью постоянной адаптации регулирующих норм к темпам развития технологий ИИ, интеграции требований и стандартов ядерной и радиационной безопасности и приложений ИИ, международного сотрудничества и координации в этой области, при разработке дорожной карты МАГАТЭ, определяющей нормативное регулирование по вопросам применения систем ИИ в атомной энергетике, необходимо исходить не только из пересмотра существующих подходов  к регулированию и изучения новых стратегий, адаптированных к сложности и разнообразию технологий ИИ, но и из учета превентивного регулирования (Cha, 2024; Lizikova, 2023: 94), что позволит выявить и устранить потенциальные проблемы до их возникновения, повысив доверие к технологии ИИ и обеспечив ее безопасность, а также пропорционального подхода, учитывающего потенциальный ущерб.

Не только МАГАТЭ, но и иные международные организации, осуществляющие деятельность в области использования атомной энергии, исследуют возможности и проблемы применения ИИ в отрасли. Например, в рамках Агентства по ядерной энергии (NEA-OECD) проводится не только работа над научно-технологическими аспектами ИИ в атомной энергетике[15], но и осуществляется деятельность по обмену опытом в области применения ИИ. В частности, в рамках прошедшего в Оттаве 1 октября 2024 года Семинара по цифровым инновациям в ядерной энергетике: раскрытие потенциала искусственного интеллекта[16], наряду с вопросами использования ИИ для ускорения развертывания атомной энергетики, переосмысления ядерных приложений с использованием ИИ, направленных на оценку возможностей замены роли человека помощью ИИ и объединения ИИ с другими цифровыми технологиями, связанных с ИИ организационных изменений, были подняты вопросы, касающиеся возможностей и проблем его регулирования. В этой части были отмечены сложившиеся благоприятные условия для разработки регулирующих норм для ИИ. Это, во-первых, принятые в 2019 году и обновленные в мае 2024 года с учетом новых технологических и политических разработок Принципы ИИ ОЭСР, составляющие этическую основу развития ИИ и являющиеся частью Рекомендации ОЭСР по ИИ[17], документа, позиционирующегося как первого межправительственного стандарта по ИИ, свою приверженность которому в настоящее время подтвердили 47 государств. А, во-вторых, роль «международной песочницы» как безопасного пространства для разработки пилотных проектов, первых руководств и определения потребностей в дорожной карте регулирования.

Исследования, направленные на внедрение прорывных инноваций, в том числе и в области ИИ, и разработка соответствующих норм в сфере ядерной и радиационной безопасности, реализуются Евратомом в рамках программы Horizon Europe,  а также дополняющих его рабочих программ исследований и обучения[18], что соответствует задаче поддерживать политику ЕС и его членов по постоянному улучшению ядерной безопасности, гарантий и защиты.

Международное сотрудничество

Несмотря на актуальность разработки и принятия глобально согласованных международных стандартов и передовых практик для надзора за ИИ в сфере атомной энергетики, маловероятно, что это произойдет в ближайшем будущем. Такой вывод обусловлен не только непредсказуемостью и неисследованностью потенциальных последствий и рисков применения самой технологии ИИ как в рассматриваемой области, но и в целом отсутствием единых подходов государств к правовому регулированию искусственного интеллекта, их концептуальными различиями (Atabekov, 2024), что, в свою очередь, может породить ряд этических, правовых, политических проблем, проблем безопасности и др. между государствами, реализующими разные модели регулирования ИИ. Так, например, если подход Европейского союза можно охарактеризовать в качестве «всеобъемлющего» (Huang еt al., 2024), основанного на риске, запрете неприемлемых видов использования и требовании надежных оценок и мониторинга, то, например, подход Великобритании отличает адаптивность  к будущему технологическому развитию и, как следствие, некоторая правовая неопределенность и ограниченное внимание к надзору, наряду с большей гибкостью и отраслевым характером. «Комплексного подхода» к нормативно-правовому регулированию регулирования ИИ придерживается Россия (Atabekov, 2024:32), для которой актуальным является проведение унификации на уровне федерального закона, регулирующего общие положения ИИ (Kologermanskaya, 2024). В США несмотря на «рекордно высокий уровень импульса для регулирования ИИ»[19] все еще не выработана единая стратегия, о чем свидетельствуют сложности с принятием федерального законодательства по ИИ[20]. В то время как характерной чертой гибридного подхода Китая к регулированию ИИ, исходящего из отраслевой самодисциплины и целевого вторичного законодательства, является закрепление принципа экстерриториального действия как основы «всеобъемлющих обязательств по использованию генеративного ИИ и алгоритмических рекомендательных услуг» (Franks еt al., 2024), Япония, напротив, придерживается мягкой модели регулирования, исходящей из приоритета экономического развития и гибкости над строгим нормативным надзором, а Индия и вовсе избегает формального регулирования данных технологий.

Наряду с отмеченным выше, в числе факторов, осложняющих осуществление глобального скоординированного международного сотрудничества, направленного на регулирование ИИ, следует отметить проводимую государствами политику поддержки национальной конкурентоспособности вкупе с геополитическими и институциональными реалиями (Roberts еt al., 2024; Johnson, 2023; Erman & Furendal, 2024). Несмотря на то, что в теории создание универсального международного режима нормативно-правового регулирования ИИ смягчило бы существующие разногласия, предложения о создании нового международного органа по ИИ представляются гораздо более сложно реализуемыми на практике нежели укрепление существующего режима ИИ посредством улучшения международной координации.

Идея создания «МАГАТЭ для ИИ»[21] не лишена и недостатков. Применительно к последним указывают на: абсолютную несхожесть сфер мирного атома и ИИ, что создаст совершенно разные политические и технологические проблемы и приведет в лучшем случае к низкой эффективности устанавливаемого режима; разницу в геополитических условиях создания этих двух органов – отсутствие на современном этапе фактора, способствующего достижению консенсуса по ключевым вопросам; более высокий риск регуляторного захвата из-за коммерческих стимулов для крупных технологических компаний формировать управление, вероятность появления проблем, связанных с суверенитетом, обусловленных сопротивлением отдельных государств международному надзору за своими системами ИИ, сложности в достижении консенсуса по глобальным стандартам безопасности и этическим нормам для ИИ по причине культурных, социальных и политических различий между государствами и др. (Roberts еt al., 2024; Huang, 2024). Кроме того, нельзя не учесть и тот факт, что МАГАТЭ сегодня представляет собой результат длительного экспертного международного сотрудничества, и идея экстраполяции накопленного опыта на уникальную и инновационную сферу ИИ не выдерживает критики, в то время как  использование опыта МАГАТЭ в качестве «важного урока для разработки регулирующих стратегий, обеспечивающих безопасное и этичное использование технологий ИИ» (Cha, 2024) может оказаться незаменимым.

Упомянутые факторы во многом определяют виды и формы международного сотрудничества, направленного на регулирование ИИ в целом, так и в области использования атомной энергии. Наряду с взаимодействием в рамках МАГАТЭ и иных международных организаций, рассмотренном нами выше, в настоящее время начинает развиваться сотрудничество преимущественно на двусторонней основе. Так, первым в мире соглашением, направленным на сотрудничество в области безопасности ИИ – тестирование ИИ и оценку рисков, обмен техническими знаниями,  информацией и специалистами – стала договоренность между США и Великобританией, достигнутая 2 апреля 2023 года[22].

В условиях высокой конкуренции за лидерство в таких высокотехнологичных, чувствительных и критически важных областях, как атомная энергетика и ИИ, на первый план выходят продвижение собственных научных исследований и разработок, а непременным условием для сотрудничества с другими государствами выступают национальные интересы и ценности, соответствующие собственному видению международной экономической архитектуры[23], что обуславливает формирование новых партнерских отношений между государствами в новых сферах.

В качестве примеров договоренностей по ИИ, имеющих отношение непосредственно к атомной сфере, можно привести соглашение, достигнутое в ноябре 2023 г., между председателем КНР Си Цзиньпином и президентом США Джо Байденом о начале двусторонних переговоров о запрете использования ИИ в автономном оружии и управлении ядерными боеголовками24, а в области мирного атома – двусторонние соглашения Комиссии по ядерному регулированию США (NRC) о деятельности по ИИ с Канадой, Францией, Германией и Великобританией, предусматривающие совместные исследования и обмен информацией по нормативным подходам  и передовому опыту в области ИИ[25].

В этой части следует отметить стремление Комиссии по ядерному регулированию США (NRC) к активному взаимодействию с национальными регулирующими органами в области использования атомной энергии, а также к сохранению в нем сильной руководящей роли, что отвечает ее программно-стратегическим целям[26].  Результатом такового стало трехстороннее соглашение «Соображения по разработке систем искусственного интеллекта в ядерных приложениях»[27], заключенное  в сентябре 2024 г. между Комиссией по ядерному регулированию США (NRC), Управлением по ядерному регулированию Великобритании (ONR) и Комиссией по ядерной безопасности Канады (CNSC). Его подписание – «это первый случай, когда международные регулирующие органы объединились для разработки принципов, касающихся ИИ в ядерном секторе»[28], «значительный шаг на пути к предоставлению возможности ответственным за ядерную сферу развертывать технологии ИИ там,  где это безопасно и надежно»[29].

Описываемые в Соглашении принципы, необходимые для учета всеми участниками жизненного цикла ИИ с целью обеспечения постоянной безопасности и надежности эксплуатации ядерных установок и других видов использования ядерных  материалов, направлены на гармонизацию подходов к регулированию (насколько это практически возможно) подписавших сторон. В документе подчеркивается преимущественный потенциал использования ИИ; возможность снижения или смягчения трудностей развертывания ИИ для ядерных приложений посредством эффективного управления; необходимость поиска оптимального уровня доверия между человеком и машиной, обеспечивающего преимущества ИИ при сохранении надлежащего надзора; важность международного сотрудничества в преодолении сложностей регулирования ИИ; признание существующих стандартов в атомной энергетике отправной точкой в сочетании с уникальными атрибутами, введенными ИИ, в условиях недоступности в ближайшее время консенсуальных стандартов, учитывающих  специфику ИИ.

Определяя ИИ как спектр технологий, способных обучаться на основе данных или опыта для выполнения задач, которые традиционно требуют человеческого интеллекта, Стороны рассматривают применение передовых принципов техники  безопасности и защиты, учет человеческих и организационных факторов, архитектуру системы ИИ, управление жизненным циклом технологий ИИ, документацию по мерам безопасности и защиты ИИ в качестве важнейших аспектов внедрения ИИ.

Что касается проблем безопасности, связанных с системами ИИ, то в соглашении подчеркивается их сопоставимость (в некоторых случаях более высокая степень значительности) с проблемами, связанными с обычным программным обеспечением, а также прямое соотношение эффективности системы ИИ с качеством обрабатываемых ею данных.

Подписание этого соглашения наглядно иллюстрирует целесообразность  коллективного подхода к регулированию ИИ в атомной сфере, способного с большей долей вероятности обеспечить достижение успехов в области ИИ, и в то же время указывает на формирование политического пространства в области ИИ в атомной отрасли.

 Заключение 

Подводя итог вышесказанному, отметим, что нормативно-правовое регулирование ИИ в атомной энергетике находится на начальном этапе своего формирования. Проведенный анализ современных подходов к нему выявил не только необходимость адаптации существующего регулирования к данной технологии, но и показал целесообразность формирования нормативного-правового регулирования непосредственно ИИ в рассматриваемой области, учитывающего отраслевую специфику использования ИИ, предполагаемые на современном этапе риски и потенциальный ущерб, а также роль в этом процессе международного сотрудничества и необходимость его глобальной координации со стороны МАГАТЭ.

Несмотря на актуальность принятия глобально согласованных международных стандартов и передовых практик для надзора за ИИ в сфере атомной энергетики, маловероятно, что в ближайшем будущем это произойдет. Соответственно, выработка принципов и стандартов безопасности ИИ в атомной энергетике будет происходить в рамках сотрудничества между отдельными государствами. Подписание первого на сегодняшний день трехстороннего соглашения о руководящих принципах для использования ИИ в атомной отрасли указывает на формирование политического пространства в области ИИ рассматриваемой сфере, в связи с чем представляется важным для России использовать этот опыт и, в свою очередь, рассмотреть возможности реализации коллективного подхода к регулированию ИИ в атомной энергетике. Это особенно актуально в условиях углубления сотрудничества посредством создания платформы по атомной энергетике в рамках БРИКС, что отвечает целям развития и внедрения лучших практик и передовых подходов применения атомных технологий в мирных целях на рынках БРИКС и БРИКС+, а также развития стимулирующих механизмов и моделей выполнения проектов в атомной отрасли стран-членов  объединения.

 

1 COP28 agreement recognises nuclear's role. Available at: https://world-nuclear-news.org/Articles/COP28-agreement-recognises-nuclear-s-role [Accessed 15th October 2024].

2 Artificial Intelligence for Accelerating Nuclear Applications, Science and Technology Available at: https://www.iaea.org/publications/15198/artificial-intelligence-for-accelerating-nuclear-applications-science-and-technology [Accessed 15th October 2024].

3 Ibid.

4 Artificial Intelligence for Accelerating Nuclear Applications, Science and Technology. Available at: https://www.iaea.org/publications/15198/artificial-intelligence-for-accelerating-nuclear-applications-science-and-technology [Accessed 15th October 2024].

5 Ядерные инновации для мира без выбросов: Бюллетень МАГАТЭ. Вена: МАГАТЭ, 2023. С. 15. Режим доступа: https://www.iaea.org/ru/bulletin/64-3 (Дата обращения: 15.10.2024).

6 Technical Meeting on the Deployment of Artificial Intelligence Solutions for the Nuclear Power Industry: Considerations and Guidance. Available at: https://www.iaea.org/events/evt2300917 [Accessed 15th October 2024].

7 New CRP: Artificial Intelligence for Accelerating Fusion R&D (F13022) Available at: https://www.iaea.org/newscenter/news/new-crp-artificial-intelligence-for-accelerating-fusion-rd-f13022  [Accessed 15th October 2024].

8 New CRP: Deployment of Innovative Digital Technologies for Efficient Decommissioning of Nuclear  Facilities (DEDICATE). Available at: https://www.iaea.org/newscenter/news/new-crp-deployment-of-innovative-digital-technologies-for-efficient-decommissioning-of-nuclear-facilities-dedicate [Accessed 15th October 2024].

9 Technologies Enhancing the Competitiveness and Early Deployment of Small Modular Reactors. Available at: https://www.iaea.org/projects/crp/i31039 [Accessed 15th October 2024].

10 AI for Atoms: The IAEA's knowledge-sharing platform for partnership on AI applications in the nuclear field. Available at: https://nucleus.iaea.org/sites/ai4atoms [Accessed 15th October 2024].

11 IAEA Designates First Collaborating Centre on Artificial Intelligence for Nuclear Power. Available at: https://www.iaea.org/newscenter/news/iaea-designates-first-collaborating-centre-on-artificial-intelligence-for-nuclear-power [Accessed 15th October 2024].

12 Artificial Intelligence for Accelerating Nuclear Applications, Science and Technology. Available at: https://www.iaea.org/publications/15198/artificial-intelligence-for-accelerating-nuclear-applications-science-and-technology [Accessed 15th October 2024].

13Рекомендация ЮНЕСКО об этических аспектах искусственного интеллекта. Режим доступа: https://unesdoc.unesco.org/ark:/48223/pf0000380455_rus (дата обращения: 15.10.2024).

14 Shaukat, S. Building Inclusive AI for Nuclear Tech: Navigating Politics, Practice & Innovation. AI  methodologies, primarily machine learning and autonomy, have emerged as powerful tools in optimizing  nuclear operations. Modern Diplomacy, March 9.

15 Ее примером является исследовательская деятельность Целевой группы по искусственному интеллекту и машинному обучению для научных вычислений в ядерной инженерии (CHF), внесшая значительный вклад в подготовку спецификации «Эталон искусственного интеллекта и машинного обучения для научных исследований вычислений в ядерной технике». См. подробнее: Task Force on Artificial Intelligence and Machine Learning for Scientific Computing in Nuclear Engineering: Critical Heat Flux (CHF) Exercises. Режим доступа: https://oecd-nea.org/jcms/pl_86257/task-force-on-artificial-intelligence-and-machine-learning-for-scientific-computing-in-nuclear-engineering-critical-heat-flux-chf-exercises (Дата обращения: 15.10.2024); Benchmark on Artificial Intelligence and Machine Learning for Scientific Computing in Nuclear Engineering (NEA/WKP(2023)). Режим доступа: https://oecd-nea.org/upload/docs/application/pdf/2024-01/nea_wkp_2023_1_2024-01-18_16-23-40_237.pdf (дата обращения: 15.10.2024).

16 Workshop on Digital Innovation in Nuclear: Unleashing the Power of AI. Available at:  https://oecd-nea.org/jcms/pl_94957/workshop-on-digital-innovation-in-nuclear-unleashing-the-power-of-ai [Accessed 15th October 2024].

17 Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). Available at:  https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449 [Accessed 15th October 2024].

18 Refer to: Annex Euratom Research and Training Programme. Work Programme 2021-2022. Available at: https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/euratom/wp-call/2021-2022/wp_ euratom-2021-2022_en.pdf [Accessed 15th October 2024].; Annex Euratom Research and Training Programme. Work Programme 2023-2025 (European Commission Decision C (2024) 3263 of 24 May 2024). Available at: https://ec.europa.eu/info/funding-tenders/opportunities/docs/2021-2027/euratom/wp-call/2023-2025/wp_euratom-2023-2025_en.pdf [Accessed 15th October 2024].

19 US State-By-State AI Legislation Snapshot. Available at: https://www.bclplaw.com/en-US/events-insights-news/us-state-by-state-artificial-intelligence-legislation-snapshot.html [Accessed 15th October 2024].

20 Показательно, что 118-й Конгресс по состоянию на июнь 2023 года внес не менее 40 законопроектов, касающихся ИИ, ни один из которых не был принят. См.: 18.     United States approach to artificial  intelligence. Available at: https://www.europarl.europa.eu/RegData/etudes/ATAG/2024/757605/EPRS_ ATA(2024)757605_EN.pdf [Accessed 15th October 2024].

21 Глава OpenAI заявил о необходимости создать "МАГАТЭ" в сфере ИИ Режим доступа: https://1prime.ru/20240213/843055915.html?ysclid=m27q4s5hr5386966540 (дата обращения: 15.10.2024).

22 США и Великобритания подписали первое в мире соглашение по безопасности в сфере ИИ. Режим доступа: https://www.interfax.ru/world/953600 (дата обращения: 15.10.2024).

23 The Atlantic Declaration: A Framework for a Twenty-First Century U.S.- UK Economic Partnership.  Available at: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/ file/1161879/THE_ATLANTIC_DECLARATION.pdf [Accessed 15th October 2024].

24 Hiebert, K. (2024) The United States Quietly Kick-Starts the Autonomous Weapons Era: De-escalation mechanisms may stop future military accidents from becoming catastrophe. Available at:  https://www.cigionline.org/articles/the-united-states-quietly-kick-starts-the-autonomous-weapons-era/  [Accessed 15th October 2024].

25 How the NRC is Preparing to Review AI Technologies Partnership. Available at: https://www.nrc.gov/ai/ externally-focused.html#international [Accessed 15th October 2024].

26 См.: AI Strategic Plan 2023–2027 (NUREG-2261). Available at: https://www.nrc.gov/reading-rm/doc- collections/nuregs/staff/sr2261/index.html [Accessed 15th October 2024]; Future Focused Research (FFR) Program. Available at: https://www.nrc.gov/docs/ML2132/ML21326A184.pdf [Accessed 15th October 2024].

27 Considerations for Developing Artificial Intelligence Systems in Nuclear Applications: September 2024. Available at: https://onr.org.uk/media/03zl1osf/canukus_trilateral_ai_principles_paper_2024_08_28-final.pdf [Accessed 15th October 2024].

28 Guidelines drawn up for AI use in nuclear sector. Available at: https://www.world-nuclear-news.org/ articles/guidelines-drawn-up-for-ai-use-in-nuclear-sector [Accessed 15th October 2024].

29 New paper's international considerations for AI in the nuclear sector [Электронный ресурс]. Available at: https://www.onr.org.uk/news/all-news/2024/09/new-paper-shares-international-principles-for-regulating-ai-in-the-nuclear-sector/ international [Accessed 15th October 2024].

×

About the authors

Lev R. Klebanov

RUDN University

Author for correspondence.
Email: solomon70@bk.ru
ORCID iD: 0000-0002-1452-9568

Doctor of Legal Sciences, Professor, Department of Criminal Law, Criminal Procedure and Criminalistics, Law Institute

6 Miklukho-Maklaya St, Moscow, 117198, Russian Federation

Marina S. Lizikova

Institute of State and Law of the Russian Academy of Sciences

Email: lizikova_m@mail.ru
ORCID iD: 0000-0002-5538-4385
SPIN-code: 7033-5240

Candidate of Legal Sciences, Senior Research Fellow, Department of Civil and Business Law

10, Znamenka str., Moscow, 119019, Russian Federation

References

  1. Anastassov, A. (2021) Artificial intelligence and its possible use in international nuclear security law. Humanities and Social Sciences. 8 (1), 92-103.
  2. Atabekov, A.R. (2024) Conceptual approaches and practice of legal regulation of artificial intelligence in the public sphere: Comparative legal research. Doctor of Legal of Sciences dissertaion. Moscow, RUDN. (in Russian).
  3. Cha, S. (2024) Towards an international regulatory framework for AI safety: Lessons from the IAEA’s nuclear safety regulations. Humanit Soc Sci Commun. 11, 506. https://www.doi.org/10.1057/s41599-024-03017-1
  4. Erman, E. & Furendal, M. (2024) Artificial Intelligence and the Political Legitimacy of Global Governance. Political Studies, 72 (2), 421-441.
  5. Fitzpatrick, M. (2019) Artificial intelligence and nuclear command and control. Survival. 61(3), 81-92. https://www.doi.org/10.1080/00396338.2019.1614782
  6. Franks, E., Lee, B. & Xu, H. (2024) China’s New AI Regulations. Global Privacy Law Review. 5 (1), 43-49. https://www.doi.org/10.54648/GPLR2024007
  7. Geist, E. & Lohn, A.J. (2018) How might artificial intelligence affect the risk of nuclear war? Santa Monica, RAND Corporation. https://www.doi.org/10.7249/PE296
  8. Huang, K., Joshi, A., Dun, S. & Hamilton, N. (2024). AI Regulations. In: Huang, K., Wang, Y., Goertzel, B., Li, Y., Wright, S. & Ponnapalli, J. (eds) Generative AI Security. Future of Business and Finance. Springer, Cham. https://doi.org/10.1007/978-3-031-54252-7_3
  9. Johnson, J. (2023) ‘AI-security dilemma: Insecurity, mistrust, and misperception under the nuclear shadow’, AI and the Bomb: Nuclear Strategy and Risk in the Digital Age. Oxford Academic. https://doi.org/10.1093/oso/9780192858184.003.0005
  10. Karim, R. & Muhammad-Sukki, F. (2023) Artificial Intelligence (AI) in the Nuclear Power Plants: Who Is Liable When AI Fails to Perform. In: Taghizadeh-Hesary F., Zhang D. eds. The Handbook of Energy Policy. Springer, Singapore. https://doi.org/10.1007/978-981-19-6778-8_27
  11. Kologermanskaya, E.M. (2024) Legal regulation of artificial intelligence and robotics technologies in the energy sector in the Russian Federation: Problems and prospects. Pravovoi energeticheskii forum. (2), 29-38. https://doi.org/10.61525/S231243500031369-3 (in Russian).
  12. Lambrini, S. & Kougias I. (2019) Legal issues within ambient intelligence environments. In: 10th International Conference on Information, Intelligence, Systems and Applications, IISA. https://doi.org/ 10.1109/IISA.2019.8900748
  13. Lizikova, M.S. (2020) Artificial intelligence in nuclear energy: Application and regulation. In: Mogilevskii, S.D., Leskova, Yu.G., Karelina, S.A., Ruzanova, V.D., Shmalii, O.V., Zolotova, O.A. & Sushkova, O.V. (eds.) Law and business: Legal space for business development in Russia. Moscow, Prospect Publ., 131-139. (in Russian).
  14. Lizikova, M.S. (2023). International nuclear law: Innovative development of the legal environment. Proceedings of the Institute of State and Law of the RAS. 18 (5), 80-97. https://doi.org/10.35427/2073-4522-2023-18-5-lizikova (in Russian).
  15. Roberts, H., Hine, E., Taddeo, M. & Floridi, L. (2024) Global AI governance: Barriers and pathways forward. International Affairs. 100 (3), 1275-1286. https://doi.org/10.1093/ia/iiae073
  16. Siserman-Gray, C., Barr, J., Burniske, J., Eftekhari, P., Marek, R. & Means, A. (2023) Regulatory Challenges Related to the Use of Artificial Intelligence for IAEA Safeguards Verification. Available at: https://resources.inmm.org/sites/default/files/2023-07/ finalpaper_379_0512065638.pdf [Accessed 15th October 2024].
  17. Suman, S. (2021) Artificial intelligence in nuclear industry: Chimera or solution? Journal of Cleaner Production. 278, 124022. https://doi.org/10.1016/j.jclepro.2020.124022
  18. Trout, C. (2024) Liability and Insurance for Catastrophic Losses: The Nuclear Power Precedent and Lessons for AI. https://doi.org/10.48550/arXiv.2409.06673
  19. Yavuz, C. & Şentürk Lüle, S. (2022) The Application of Artificial Intelligence to Nuclear Power Plant Safety. In: Mercier-Laurent, E., Kayakutlu, G. (eds) Artificial Intelligence for Knowledge Management, Energy, and Sustainability. IFIP Advances in Information and Communication Technology. Switzerland, Springer Publ., 117-127. https://doi.org/10.1007/978-3-030-96592-1_9

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Klebanov L.R., Lizikova M.S.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.