Модельные подходы к интеграции искусственного интеллекта в сферу публичных правоотношений в России на базе сравнительного исследования опыта зарубежных стран

Обложка

Цитировать

Полный текст

Аннотация

Технологии искусственного интеллекта (ИИ) являются одним из значимых решений, способных фундаментально изменить как общественные отношения, так и сферу публичных правоотношений. Цель исследования - провести сравнительный анализ действующих подходов по интеграции ИИ в сферу публичных правоотношений зарубежных стран и России, с последующим определением наиболее эффективных конструкционных подходов формировании регулятивной политики в отношении ИИ в России. Указанная цель подразумевает изучение следующих вопросов: стратегическое целеполагание в отношении ИИ в России и зарубежных странах; тактическое исполнение интеграции ИИ в сферу публичных правоотношений и возможные пути решения в целях обеспечения прозрачности принятия решения ИИ; модельные компенсирующие мероприятия, обеспечивающие безопасную интеграцию ИИ в сферу публичных правоотношений России. Объект исследования - нормативные документы, стратегии, и иные документы регламентирующие вопросы интеграции ИИ в сферу публичных правоотношений России и зарубежных стран, судебная практика, академические публикации по исследуемой проблематике. Методология исследования интегрирует комплекс современных философских, общенаучных, специально-научных методов познания, включая диалектический, системный, структурно-функциональный, герменевтический, сравнительно-правовой, формально-юридический (догматический), метод правового моделирования и др. В рамках настоящего исследования делается особый акцент на осуществлении сравнительного правового исследования подходов и регулирования ИИ в публичной сфере на основании опыта различных государств. Общенаучный диалектический метод дал возможность рассмотреть положение ИИ в правовом поле с точки зрения вариативности регулирования и тенденций последующего развития регулирования указанной технологии, обосновать достоинства и недостатки различных подходов к решению вопросов. Дополнительный акцент также сделан на решении вопросов прикладного характера применения ИИ в сфере публичных правоотношений в России, с учетом правового моделирования и выработки компенсирующих мероприятий в рамках регулятивных подходов органов власти.

Полный текст

Введение Позиционирование искусственного интеллекта в правовом поле является одним из значимых вопросов, которому отводится системная роль на уровне государственных институтов, отмечаемых как в документах Президента России[193] и его выступлениях, так и документах Правительства России[194]. На уровне доктринальных исследований необходимо отметить, проработанность отдельных вопросов как на уровне диссертационных исследований (Morhat, 2018; Marchenko, 2022; Shchitova, 2022), так и в фундаментальных научных публикаций Yastrebov, 2018a, b; Ponkin & Redkina 2018; Momotov, 2021). При этом особое внимание необходимо акцентировать на статье О.А. Ястребова (Yastrebov, 2018a), который отмечает необходимость совершенствования административного права и внесения соответствующих изменений в КоАП с учетом появления технологии в области искусственного интеллекта. Следует отметить так же позицию немецкого адвоката Шерера (Scherer, 2015), который говорит о необходимости развития правового регулирования ИИ, в т.ч. механизмы деликтной ответственности, касающиеся систем ИИ, солидарной ответственности за использование не прошедших сертификацию продуктов ИИ и т.д. Диаметральную позицию занимают ряд ученых (Bryson, Diamantis, & Grant, 2017), которые считают, что выделение отдельной правосубъектности для ИИ может повлиять на ослабление правовой позиции человека. Отметим также, что некоторые исследователи рассматривают действующие надстройки на базе юридического лица для ИИ как уязвимые с точки зрения ограниченной уязвимости в рамках привлечения к административной и уголовной ответственности (Chopra & White, 2004). Стратегическое целеполагание в отношении ИИ в России и зарубежных странах В рамках позиционирования искусственного интеллекта в сфере публичных правоотношений зарубежных стран необходимо отметить, что на уровне зарубежных стран сформулированы конкретные ведомства, стратегические документы и целевое видение ИИ, в т.ч. в контексте его позиционирования в сфере публичных правоотношений. В Германии вопрос реализации регулирования ИИ возложен на Федеральное Министерство цифровых технологий и транспорта, что находит свое отражение в регуляторной политике в части формирования подхода к регулированию беспилотного транспорта[195]. На уровне стратегического планирования в 2018 г. утверждена стратегия[196] в области искусственного интеллекта, которая устанавливает набор мероприятий в целях интеграции ИИ в государственный сегмент, увеличения доступности публичных данных и развития инструментов в области этики и прозрачности принятия решения ИИ[197]. Во Франции национальная стратегия развития ИИ была представлена Президентом страны в 2018 г.[198] В рамках указанной стратегии определены приоритетные направления развития ИИ для госсектора, а именно открытость данных, участие в формировании экосистемы, проработка вопросов в области этики и адаптация национальных подходов к регулированию с общеевропейским подходом. Центральными органами власти, отвечающими за развертывание ИИ, выступает Министерство экономики, финансов, промышленного и цифрового суверенитета[199]. Базовая специализация ИИ для целей публичного регулирования охватывает медицинскую сферу[200], обеспечение защиты базовых прав и свобод населения (данные, связанные с физической идентификацией[201], обеспечения надлежащей и безопасной обработки персональных данных[202], разработка единых стандартов и принципов сертификации продукции ИИ[203]). Необходимо так же отметить, что в данной стране активно прорабатывается вопрос регламентации юстиционной составляющей, включающей предиктивное правосудие. Помимо оцифровки и публикации данных, предусмотренных судебным разбирательством (ст. L.111-13 Кодекса судебной организации[204]), Апелляционные суды Ренна и Дуэ проводили тестирование ИИ для целей реализации предиктивного правосудия[205]. В США национальная стратегия в отношении ИИ регламентируется национальной инициативой, принятой в 2020 г.[206] Данный документ содержит амбициозную цель обеспечения абсолютного лидерства в указанной отрасли, с понимаем последствий влияния технологий на все сектора экономики (потенциальная трансформация трудовых отношений и социальных последствий). Сопутствующие документы изданы Президентом США (исполнительный указом 13960[207] и 13859[208]), которые дополняют положения указанной стратегии в контексте научно прикладных мероприятий и интеграции в сферу государственного управления. Кроме того, Закон об искусственном интеллекте в правительстве от 2020 г. (РАЗДЕЛ U, РАЗДЕЛ I)[209] определяет полномочия Центра передового опыта в области ИИ (GSA AI), являющегося агрегатором лучших практик по интеграции ИИ в сфере публичных правоотношений. При этом единый документ, конкретизирующий конечную цель интеграции ИИ для целей публичных правоотношений, выявить затруднительно (поскольку каждый федеральный орган власти формулирует свое целеполагание (оборона[210], здравоохранения[211], юстиции[212] и т.д.), оценку эффективности потраченных ведомством средств и иных ресурсов для интеграции ИИ проводится через ежегодный аудит. Китай в рамках государственной политики вырабатывает подходы к интеграции ИИ с 2015 г. 13-й Пятилетний план развития[213] на 2016-2020 гг. учитывает в том числе необходимость полноценной интеграции ИИ в контексте судопроизводства, включая административную юстицию. Целеполагание на этом этапе охватывает формирование таких областей, как интеллектуальное разрешение дел, интеллектуальное судебное делопроизводство и проведение интеллектуальной оценки материалов и доказательств (Xu, 2017). Следует отметить, что Китай в части вопросов интеграции электронного правосудия и, самое главное, ИИ правосудия, достиг существенных результатов в ходе реализации экспериментального режима внедрения ИИ (система 106) (Cui, 2020) в Шанхае[214]. Китай является одним из значимых участников мирового рынка в контексте разработки ИИ и его регулирования. Китай разработал свыше 1200 государственных планов, регламентирующих порядок применения и интеграции ИИ в публичную сферу. Однако нельзя не отметить, что количество правовых актов не всегда влияет на качество регулирования (точность и непосредственная относимость регулирования). Кроме того, вопрос централизованного подхода в Китае так же отсутствует, поскольку власти КНР ориентируются на «мягкую» регулятивную политику, базирующуюся на формировании книг белых практик[215] и проработке этических аспектов на доктринальном уровне[216] (Zhang et al., 2021; Liu, Shi 2020). Детализация подходов к регулированию ИИ в Китае планируется к 2025 году[217]. Говоря о прогрессивных подходах к регулированию ИИ и робототехники (в контексте оболочки программы), нельзя не упомянуть опыт Саудовской Аравии. Это единственное государство, рискнувшее создать прецедент по формальному уравниванию в правах робота и человека, предоставив подданство королевства роботу Софии[218]. В контексте стратегии необходимо выделить стратегический документ «Vision 2030»[219], который определяет базовые установки в области диверсификации экономики, за счет инвестирования нефтегазовых доходов в технологические решения (в том числе ИИ). На уровне органов власти в Королевстве Саудовская Аравия было создано Управление данных и искусственного интеллекта Саудовской Аравии (SDAIA)[220], которое выступает ответственным органом за развертывание систем ИИ, в т.ч. для нужд органов власти. Среди конкретных показателей, которые ожидает Королевство Саудовская Аравия к 2030 году, можно выделить количественные показатели (требования к количеству госслужащих, обученных работе с ИИ, экспертов, позиционирование страны в мировом сообществе по уровню открытости данных, научно-публикационной активности и т.д.).[221] Рассматривая документы Президента России и Правительства России (упомянутые в разделе «Введение»), необходимо отметить представленную в этих ресурсах комплексность восприятия проблематики ИИ с точки зрения экономики, технологического аспекта, правового оформления и этической составляющей в контексте интеграции ИИ в сферу общественных отношений. При этом в контексте публичных правоотношений отдельно определяется необходимость применения ИИ в области «умного» рассмотрения обращения граждан, предоставления государственных услуг, реализации действий разрешительного характера, осуществления контрольно-надзорных мероприятий. Указанные задачи требуют формирования прозрачных правил оценки систем ИИ, оценки эффективности их применения, а также соответствующего правового оформления по интеграции ИИ в сферу государственного управления. При этом сама реализация указанной конструкции планируется к 2024 г. Тактическое исполнение интеграции ИИ в сферу публичных правоотношений и возможные пути решения в целях обеспечения прозрачности принятия решения ИИ Следует отметить, что внедрение ИИ в сферу публичных правоотношений порождает как позитивный, так и негативный опыт. Для стран Латинской Америки (Колумбия и Бразилия) применение ИИ приносит значительные преференции с точки зрения публичной власти. Программа Koob, в рамках анализа рынка выявляет незадекларированную коммерческую деятельность, реализуемую на площадке Instagram[222]. В рамках анализа публичных данных граждан г. Медельина было выявлено 2,6 тысяч человек осуществляющих торговлю, при этом только 453 из них были зарегистрированы в казначействе (местном налоговом органе). ИИ Лаура оказывает предиктивный комплекс мероприятий по оказанию медицинских услуг для пациентов с сепсисом[223]. В случае выявления негативных показателей у пациента (особенно критических для его здоровья) указанный алгоритм вызывает выездную бригаду врачей пациенту. В Эстонии используется модернизированная система космического мониторинга SATIKAS[224], которая позволяет проводить дистанционный анализ эффективности использования субсидируемых государством посевных площадей. Следует отметить, что в рамках выездных проверок профильного департамента Эстонии охватывалась только 5% выборка проверяемых объектов (Misuraca & van Noordt, 2020). ИИ VeriPol используется в рамках службы внутренней безопасности в Испании. Данный инструмент выявляет возможные фальшивые отчеты, предоставляемые полицейскими. [225] Эффективность указанной технологии только за одну неделю января 2019 года, показала, что 80% представленных отчетов из соответствующей выборки являются фальшивыми. Негативный опыт зарубежных партнеров в области применения ИИ для целей публичных органов власти также следует отметить. Наиболее распространенным феноменом является непрозрачность выборки или ее дискриминационный характер при проведении обработки данных ИИ. Узкоспециализированный ИИ SyRi в Нидерландах проводил анализ мошенничества в сфере предоставления пособий для социально уязвимых групп[226], при этом указанный механизм противоречил базовым правам человека, что впоследствии повлияло на позицию суда в г. Гааге, который постановил недопустимость применения указанной технологии госслужащими ввиду противоречия их действий статье 8 Европейской конвенции о правах человека (непрозрачный характер работы и социальные риски существенно превышают экономическую целесообразность)[227]. Аналогичный опыт был зафиксирован в Польше в схожей ситуации. Технология ИИ проводила полностью автономный анализ рынка безработицы (Niklas, Sztandar-Sztanderska & Szymielewicz, 2015). Мотивировочная позиция Конституционного суда Польши оказалась идентична практике Нидерландов [228]. Упреждающую позицию занимают зарубежные партнеры (представленные англосаксонской группой стран) в отношении зон влияния технологий ИИ на сферу публичных правоотношений и необходимости контроля технологий. В США принимаются локальные инициативы, предписывающие запрет на применение ИИ для целей публичных органов власти, в случае явлений дискриминационного характера[229]. Власти Канады предписывают применение технологий для целей публичных органов, только прошедших соответствующую верификацию, обеспечивающую его подотчетность и безопасность [230]. Следует отметить, что в России вопрос кураторства вопросов внедрения ИИ в сферу государственного управления возложили на Национальный центр развития искусственного интеллекта[231]. Данный центр сопровождает национальный портал в сфере ИИ, участвует в отборе ИИ решений для всех допустимых отраслей, мониторинг развития технологии, экспертизы нормативных документов. Модельные компенсирующие мероприятия, обеспечивающие безопасную интеграцию ИИ в сферу публичных правоотношений России Как мы видим, на стратегическом и тактическом уровне одним из «краеугольных камней» преткновения интеграции указанной технологии является обеспечение вопросов прозрачности ИИ[232]. Данный вопрос также находит свое отражение в дискуссиях отечественных и зарубежных ученых. Д. Баррелл в своих трудах отмечает, что осознание непрозрачности принятого решения ИИ для ИИ не является самой целью, поскольку тогда необходимо раскрывать полную цепочку принятия решения (как и какие данные введены в систему, насколько они достоверны и не искажены, как они сформулированы в результате обработки) (Burrell, 2016). Костас Дж., Грей К. поддерживают тренд применимости человеческих способов познания к ИИ, поскольку они только формируют иллюзию подотчетности указанной технологии человеку (Grey & Costas, 2016). В практической плоскости применения ИИ А.В. Мартынов и М.В. Бундина рекомендуют для целей органов власти внедрение в обязательном порядке этико-философских принципов, включающих вышеуказанную подотчетность, стабильность, и т.д. (Martynov & Bundin, 2020). По мнению автора настоящей статьи, наиболее простым решением вопроса прозрачности принятия решения, без привязки к человеческому восприятию технологии (его отождествления и антропоцентричности), техническому уровню подготовленности (следует понимать, что указанная технология выходит далеко за рамки базовых инструментов ИКТ, применяемых большинством людей в жизни) может выступить применение «контрфактуальных» объяснений. Идея сформулирована Левисом Д., и применительно к ИИ данное объяснение подразумевает раскрытие не полного комплекса алгоритмов принятых решений, а только составных элементов, которые раскрываются для целей изменения и достижения нужного результата (Lewis, 1973). Вторым «краеугольным камнем», по мнению автора настоящей статьи, выступает вопрос доступа допуска к информации для ИИ и целевых областей для эксперимента в рамках исполнения публичных функций и областей интеграции для осуществления. Следует понимать, что ранее упомянутый базовый документ Правительства России, определяющий стратегический и тактический контур интеграции ИИ в сферу общественных правоотношений, охватывает в т.ч. возможность применения экспериментальных режимов, а также режим для доступа к необходимым в целях разработки систем ИИ данным из ГИС. Вместе с тем следует отметить необходимость формулирования единых внутренних подходов к маркировке и градации уровней допуска к информации ИИ с учетом понимания его технологической безопасности, социальной и экономической эффективности (что также закреплено в рамках Распоряжения Правительства России). Говоря об информации и уровнях допуска, мы подразумеваем данные, сообщения рисунки и т.д. независимо от формы их представления (ст. 2 ФЗ-149[233]). При этом регулирование допуска к данным зависит от заинтересованных сторон (персональная, корпоративная, государственная и т.д.) Автором настоящего исследования предлагается рассмотреть упрощенную конструкцию выделения трех уровней допуска к информации ИИ - базовый, продвинутый и предиктивный. Под базовым уровнем допуска предлагается определить рутинные процессы, которые реализуются в рамках камеральных процедур в отношении правонарушений, несущих незначительные социальные последствия и использующих внутреннюю базу данных профильного органа власти или сегмента регулирования. Данные процессы подразумевают выборочную верификацию со стороны человека, а также мониторинге возможных процедур оспаривания принятых решений ИИ поднадзорным субъектом. Продвинутый уровень допуска и обработки информации предлагается определять к использованию в том случае, когда идет процедура выездной проверочной процедуры (имеющей риск интерпретации действий проверяемого объекта к административной и уголовной ответственности (небольшой и средней тяжести). Следует понимать, что в данном случае происходит обязательная верификация всех запросов ИИ со стороны профильного представителя ведомства. В контуре взаимодействия возможно использование единой площадки «Госуслуги», в рамках которой производится обмен данными между участниками процесса и ИИ профильного ведомства. Предиктивный уровень допуска и обработки информации используется в целях пресечения существенных административных и уголовных правонарушений. В рамках указанного подхода ИИ (или возможный конгломерат нескольких систем (роевой ИИ) осуществляет сбор информации со всех доступных источников информации в целях формирования модельных конструкций поведения субъектов. Для целей осуществления градированных подходов к обработке информаций для целей административного контроля предлагается так же учитывать, что тестируемый сегмент должен иметь унифицированные признаки и большой массив данных. В рамках консолидированной административной судебной практики[234] можно определить, что в качестве примеров базовых правоотношений, на которые рекомендуется использовать для тестирования ИИ и его эффективности, могут выступать дела: 1) связанные с правонарушениями, посягающими на общественный порядок и безопасность; 2) связанные с правонарушениями в сфере финансовых рынков и налогообложения; 3) связанные с правонарушениями в сфере соблюдения порядка управления; 4) связанные с правонарушениями в сфере дорожного транспорта. Указанные сегменты подтверждаются как наиболее статистически емкие сегменты деятельности судов, а также наиболее оцифрованные или инфраструктурно готовые сегменты правоотношений (камеры, обмен данных, фотои видеозапись и т.д.). В рамках перспективного планирования предиктивного реагирования ИИ в целях пресечения правонарушений в указанных сферах потребуется адаптация подходов, предусмотренных КоАП РФ, по следующим направлениям: 1. Выработка упреждающих инструментов оповещения о недопустимости действий конкретного субъекта с интерпретацией его действий в рамках административного права и предложений по альтернативным легальным способам достижения поставленный субъектом цели (с последующим учетом в рамках административного расследования и привлечения к ответственности, предусмотренной ст. 4.3. КоАП РФ). 2. Выработка упреждающих инструментов в момент совершения правонарушения субъектом подразумевающее оперативное уведомление профильного сотрудника органа власти о имеющихся посягательствах субъекта, а также возможной блокировки действий субъекта правонарушения (блокировка помещения, объекта транспорта, платежного средства и т.д.). Нельзя не отметить, что предложенные аспекты реализации интеграционных мероприятий в отношении ИИ и его последующих действий от органа власти являются высокорискованными и требуют решения проблем идентификации ИИ в поле публичных правоотношений как третьего аспекта «краеугольного камня». На текущий момент в России нет специализированных требований в отношении компаний, занимающихся разработками в сфере ИИ по аналогии с банковской деятельностью[235]. Однако корреляция указанных сегментов, по мнению автора, присутствует - большой массив данных и необходимая инфраструктура для обработки бизнес-процессов, высокая степень влияния на безопасность страны и т.д. В этой связи рекомендуется рассмотреть выработку особых подходов к регулированию компаний, занимающихся разработкой ИИ по аналогичному принципу: 1. Идентификация. Необходима выработка унифицированных принципов регистрации указанных юридических лиц. Базовая разрешительная конструкция подразумевает лицензирование деятельности, альтернативой которой может выступить формирование саморегулируемых организаций в указанном рынке. По мнению автора настоящей статьи, предпочтительным выступает членство в СРО, поскольку учитывает возможность формирования компенсационного фонда (с возможной конструкцией скользящих значений членских взносов), которая не предусматривается в рамках лицензионных мероприятий. Обязательное членство в СРО позволит унифицировать и определить контур участников рынка, а также обеспечит формирование императивного обязательства по предоставлению исходного кода как в СРО, так и профильному органу власти, позволит сформировать двойной контур контроля за технологией ИИ. 2. Рейтинг. После идентификации участников рынка в области ИИ рациональным звеном в целях обеспечения понимания эффективности и безопасности технологии обществом (в том числе для целей публичных органов власти) выступает регламентация порядка ранжирования компаний, занимающихся ИИ (по аналогии с социальным рейтингом, применяемым в Китае[236]. Учитывая существенный характер влияния технологии ИИ на сферу общественных отношений, рекомендуется выработка следующих принципов в отношении ранжирования указанных лиц, а именно выделение конечного бенефициара технологии, определения глубины позиционирования лица на рынке ИИ (потенциальная степень опасности технологии), продвижения стабильности технологии (наличие технологических сбоев и фактов «утечки данных»), мониторинг количества обращений в контрольно-надзорные органы. При этом в контексте применения ИИ в сфере публичных правоотношений рекомендуется детализация количества оцифрованных и алгоритмизированных процессов ИИ, проведение последовательного анализа степени воздействия ИИ и его влияния на профильный сегмент общественных правоотношений ИИ (или связки ИИ и должностного лица), продвижение устойчивости принятых ИИ решений в рамках судебного порядка обжалования действий органов власти, использующих ИИ, а также внедрение комплексного восприятия технологической готовности отдельных технических решений ИИ. 3. Регламентация указанного рейтинга позволит сформулировать в дальнейшем скользящий и гибкий механизм регулирования ИИ для целей публичных правоотношений, в том числе учитывающий вышеуказанные градированные уровни допуска к информации, определение белых практик применения ИИ для целей органов власти, выделение областей, где возможна полностью автономная реализация ИИ, а где необходима связка ИИ и человека, а также реализацию сбалансированных стимулирующих мероприятий для разработчиков ИИ (с учетом рисков монополизации рынка и степени влияния конкретных технических решений на функционирование органов власти). Заключение На основании изложенного выше, можно сделать вывод, что вопрос регулирования ИИ в сфере публичных интересов является стратегически значимым на уровне государств с различной правовой культурой. При этом фокус регламентации отношений носит различный характер специализации в зависимости от страны. Говоря о самой природе ИИ в сфере публичных правоотношений, надо признать, что существуют как положительные примеры применения технологии ИИ для целей государства, так и потенциальные проблемные зоны, которые в последствии рассматриваются профильными судами в контексте рассмотрения прозрачности алгоритмов, используемых ИИ. Для целей эффективной интеграции ИИ в сферу публичных правоотношений в России предлагается следующее: 1. Для целей обеспечения прозрачности принятия решения необходимо использовать контрфактуальные объяснения. 2. Для целей обеспечения эффективного экспериментального режима интеграции ИИ рекомендуется определить три базовых уровня допуска к информации (базовый, продвинутый и предиктивный), четыре базовых сектора правоотношений для проведения эксперимента по применению ИИ (правонарушения в сфере финансовых рынков и налогообложения, соблюдения порядка управления, дорожного транспорта, общественного порядка и безопасности); далее предлагается формирование компенсирующих мероприятий по легализации механизмов осуществления предиктивного реагирования ИИ, формирование инструментов идентификации участников рынка ИИ на базе членства СРО, регламентация процедуры ранжирования ИИ для целей общественных и публичных правоотношений и выработка соответствующих стимулирующих и сбалансированных мероприятий в отношении регулирования отдельных технологических решений в области ИИ.
×

Об авторах

Атабек Рустамович Атабеков

Российский университет дружбы народов

Автор, ответственный за переписку.
Email: atabekov-ar@rudn.ru
ORCID iD: 0000-0002-1456-7409
SPIN-код: 5254-5460

кандидат экономических наук, доцент кафедры административного и финансового права юридического института

Российская Федерация, 117198, г. Москва, ул. Миклухо-Маклая, д. 6

Список литературы

  1. Bryson, J. J., Diamantis, M. E. & Grant, T.D. (2017) Of, for, and by the people: the legal lacuna of synthetic persons. Artificial Intelligence and Law. (25), 273-291. https://doi.org/10.1007/s10506-017-9214-9
  2. Burrell, J. (2016) How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big data & society. 3(1), 205395171562251. https://doi.org/10.1177/2053951715622512
  3. Chopra, S., & White, L. (2004) Artificial agents-personhood in law and philosophy. In: Proceedings of 16th European conference on artificial intelligence, ECAI 2004. IOS Press. pp. 635-639.
  4. Cui, Y. (2020) Artificial intelligence and judicial modernization. Springer Singapore, Shanghai People's Publishing House. https://doi.org/10.1007/978-981-32-9880-4
  5. Grey, C. & Costas, J. (2016) Secrecy at work: The hidden architecture of organizational life. Stanford, California, Stanford University Press.
  6. Lewis, D.K. (1973) Counterfactuals. Cambridge, Harvard University Press.
  7. Liu, F. & Shi, Y. (2020) Investigating laws of intelligence based on AI IQ Research. Ann. Data. Sci. (7), 399-416. https://doi.org/10.1007/s40745-020-00285-x
  8. Марченко А.Ю. Правовой анализ новейшего законодательства ЕС о применении технологий искусственного интеллекта: дисс. ... канд. юрид. наук. М.: Московский государственный институт международных отношений (университет) Министерства иностранных дел Российской Федерации, 2022. 208 с.
  9. Мартынов А.В., Бундин, М.В. О правовых принципах применения искусственного интеллекта при осуществлении органами исполнительной власти контрольнонадзорной деятельности // Журнал российского права. 2020. № 10. С. 59-75. https://doi.org/10.12737/jrl.2020.120.59-75
  10. Misuraca, G. & van Noordt, C. (2020) Overview of the use and impact of AI in public services in the EU. EUR 30255 EN. Publications Office of the European Union, Luxembourg. https://doi.org/10.2760/039619
  11. Момотов В.В. (2021) Искусственный интеллект в судопроизводстве: состояние, перспективы использования // Вестник Университета имени О.Е. Кутафина (МГЮА). 2021. № 5(81). С. 188-191. https://doi.org/10.17803/2311-5998.2021.81.5.188-191
  12. Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: дисс. ... доктора юрид. наук. Москва, Рос. гос. акад. интеллектуал. собственности, 2018. 420 с.
  13. Niklas, J., Sztandar-Sztanderska, K. & Szymielewicz, K. (2015) Profiling the unemployed in Poland: Social and political implications of algorithmic decision-making. Warsaw, Creative Commons Attribution 4.0 International (CC BY 4.0). Available at: https://panoptykon.org/sites/default/files/leadimage-biblioteka/panoptykon_profiling_report_ final.pdf. [Accessed 20th January 2022].
  14. Понкин И.В., Редькина А.И. Искусственный интеллект с точки зрения права // Вестник Российского университета дружбы народов. Серия: Юридические науки. 2018. Т. 22. № 1. С. 91-109. https://doi.org/10.22363/2313-2337-2018-22-1-91-109
  15. Scherer, M.U. (2016) Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies. Harvard Journal of Law & Technology. 29(2), 353-400.
  16. Щитова А.А. Правовое регулирование информационных отношений по использованию систем искусственного интеллекта: дисс. ... канд. юрид. наук. М.: Московский государственный юридический университет имени О.Е. Кутафина (МГЮА), 2022. 225 с.
  17. Xu, A. (2017) Chinese judicial justice on the cloud: a future call or a Pandora’s box? An analysis of the ‘intelligent court system’of China. Information & Communications Technology Law. 26(1), 59-71. https://doi.org/10.1080/13600834.2017.1269873
  18. Ястребов О.А. Искусственный интеллект в правовом пространстве // Вестник Российского университета дружбы народов. Серия: Юридические науки. 2018. Т. 22. № 3. C. 315-328. https://doi.org/10.22363/2313-2337-2018-22-3-315-328
  19. Ястребов О.А. Правосубъектность электронного лица: теоретико-методологические подходы // Труды Института государства и права Российской академии наук. 2018. Т. 13. № 2. С. 36-55.
  20. Zhang, Z., Zhang, J. & Tan, T. (2021) Analysis and Strategy of AI Ethical Problems. Bulletin of Chinese Academy of Sciences (Chinese Version). 36(11), 1270-1277. https://doi.org/10.16418/j.issn.1000-3045.20210604002

© Атабеков А.Р., 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах