Artificial Intelligence from the Point of View of Law

Abstract


Artificial intelligence technologies are developing intensively today, including due to the development of technologies of stable neural networks and cloud computing infrastructures, fuzzy system technologies, entropy administration, swarm intelligence, evolutionary computations, and many others. etc. At the same time, the problem of almost complete absence of normative legal regulation and normative technical regulation of the foundations, conditions and features of development, functioning and activities, integration into other systems and control over the use of artificial intelligence technologies is global today. The Article is devoted to the study of the specifics of the legal regulation of the use and development of artificial intelligence. Some approaches to the definition of artificial intelligence and the features of legal regulation of this sphere, which take place in the scientific literature, are considered and the author's definition of artificial intelligence is developed and given through the disclosure of its main features. In particular, according to the proposed definition, artificial intelligence is an artificial complex cybernetic computer-software-hardware system possessing the properties of substantivity, autonomy, and also the ability to perceive and analyze data, to self-learn. The question of positioning the artificial intelligence system as a special form of person (for example, the so-called «electronic person»), that is, granting it a certain legal personality depending on various factors and the field of application of such a system, is considered in this article. The article also notes the main possible approaches to legal support for the use and development of artificial intelligence systems, in particular, such approaches include the preemptive universal-total legal regulation and legal regulation aimed at the regulation of specific artificial intelligence systems. The main risks and uncertainties associated with artificial intelligence (and which are of great importance for the adoption of legislation in this field) have been investigated. There are drawn the conclusions about how to develop legislation on the use and development of artificial intelligence: consistently, taking into account the specifics of areas of its application, as well as balancing the interests of individuals, society and the state with regard to proper security and protection of individual rights, and interests related to the development of innovation for the benefit of the whole society.


«От монстра Франкенштейна Мэри Шелли к классическому мифу о Пигмалионе, от легенды о пражском големе к роботу Карела Чапека, который придумал это слово, люди фантазировали о возможности создания интеллектуальных машин, чаще всего - андроидов с человеческими характеристиками» (Введение к резолюции Европейского Парламента вместе с рекомендациями Комиссии от 16 февраля 2017 г. «Нормы гражданского права о робототехнике») I. ВВЕДЕНИЕ Технологии искусственного интеллекта сегодня интенсивно развиваются, в том числе из-за развития технологий устойчивых нейронных сетей и инфраструктур облачных вычислений, технологий нечетких систем, энтропийного управления, роевого интеллекта, эволюционных вычислений и мн. др. В разделе I Программы «Цифровая экономика Российской Федерации», утвержденной Распоряжением Правительства Российской Федерации от 28.07.2017 № 1632-р[84], технологии искусственного интеллекта (наряду с нейротехнологиями) обозначены как одна из позиций в перечне «сквозных цифровых технологий, которые входят в рамки настоящей Программы». Пунктом 1.8.1 раздела «Дорожная карта» указанной Программы «Цифровая экономика Российской Федерации» запланировано внедрение «регулирования правовых вопросов, связанных с использованием робототехники, инструментов искусственного интеллекта», срок исполнения - II квартал 2019 г. Вопросов применения искусственного интеллекта касаются также пункты 3.3.6, 5.4.5, 5.4.7, 5.4.11, 5.4.12. Стратегией развития информационного общества в Российской Федерации на 2017-2030 гг.[85] к числу основных направлений развития российских информационных и коммуникационных технологий отнесены технологии искусственного интеллекта (подпункт «в» пункта 36). Стратегия развития отрасли информационных технологий в Российской Федерации на 2014-2020 гг. и на перспективу до 2025 г.[86] прогнозирует, что интеллектуальные системы станут неотъемлемой частью повседневной жизни уже к 2020 году, и предусматривает программные технологии поддержки принятия решений в реальном времени с элементами искусственного интеллекта, предусматривает задействование систем искусственного интеллекта при «анализе больших массивов данных и извлечении знаний, включая новые методы и алгоритмы для сбора, хранения и интеллектуального анализа больших объемов данных (включая вычислительную лингвистику)», а также задействование систем искусственного интеллекта при распознавании образов и интеллектуальном поиске (разделы 2 и 7). Стратегия научно-технологического развития Российской Федерации[87] заявляет в числе приоритетов научно-технологического развития Российской Федерации в ближайшие 10-15 лет «переход к передовым цифровым, интеллектуальным производственным технологиям, роботизированным системам, новым материалам и способам конструирования, создание систем обработки больших объемов данных, машинного обучения и искусственного интеллекта» (подпункт »а» пункта 20), а также «связанность территории Российской Федерации за счет создания интеллектуальных транспортных и телекоммуникационных систем» (подпункт «е» пункта 20). Как отмечается исследователями: «распространение технологий искусственного интеллекта в обществе неотъемлемо связано с тем, что чем больше люди используют искусственный интеллект, тем более вероятны разнообразные нарушения законов… Растущий уровень использования технологий искусственного интеллекта приводит к некоторым существенным проблемам в области законодательства… Соответственно, развитие искусственного интеллекта и его постоянно расширяющихся сфер применения требует изменений в правовом регулировании» (Čerka, Grigienė & Sirbikytė, 2015:377). Общемировой сегодня является проблема практически полного отсутствия нормативного правового регулирования и нормативного технического регулирования основ, условий и особенностей разработки, запуска в работу, функционирования и деятельности, интеграции в другие системы и контроля применения технологий искусственного интеллекта. Лишь отдельные государства понемногу начинают заполнять нормативным материалом отдельные каверны этого, в целом пробельного, поля, но рассматриваемая проблема не связана рамками национального государства. Поэтому и стандартизация в этой сфере должна быть осуществлена, прежде всего, на глобальном уровне. Следует отметить, что вопросы правового обеспечения использования и развития искусственного интеллекта не раз становились предметом интереса исследователей, как российских, так и зарубежных. В частности, общие вопросы создания и использования искусственного интеллекта исследовались А. Оскамп и А. Лоддером (Oskamp & Lodder, 2006), вопросы совершенствования подходов к определению уголовной и иной ответственности в связи с развитием инноваций изучались М. Гэссоном и Б.-Я. Купсом (Gasson & Koops, 2013), Д. Джонсон (Johnson, 2014), Г. Халлеви (Hallevy, 2015). К проблеме исследования искусственного интеллекта с точки зрения права интеллектуальной собственности обращался Роберт Ю (Yu, 2017). Х. Сарипан в своей работе рассматривала перспективы наделения искусственного интеллекта определенной степенью правосубъектности (Saripan, 2016). Некоторые иные вопросы использования систем искусственного интеллекта с точки зрения права исследовались Р. Дж. Алленом (Allen, 2004), Э. Ниссаном и А. Мартино (Nissan & Martino, 2004). Использование искусственного интеллекта в юриспруденции, в том числе для выполнения определенных задач юриста, стало предметом изучения В. Барфилда (Barfield, 2005), Дж. Сартора (Sartor, 2009), К. Санстейна (Sunstein, 2001) и К. Эшли (Ashley, 2017). II. ОПРЕДЕЛЕНИЕ ПОНЯТИЯ И СУЩЕСТВЕННЫЕ ПРИЗНАКИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В общем значении, интеллектуальное управление - автоматическое управление, при котором программные алгоритмы заранее не задаются, а формируются самой системой управления на основе формализованных описаний целей, знаний о возможных действиях и информации о текущих изменениях состояния внешней среды (Popov, 2000:24). Учеными обоснованно указывается: «искусственный интеллект - это новое явление, которое по ряду позиций недостаточно изучено. Искусственный интеллект отличается от обычных компьютерных алгоритмов тем, что он способен обучать себя на основе накопленного опыта. Эта уникальная функция позволяет искусственному интеллекту действовать по-разному в аналогичных ситуациях, в зависимости от ранее выполненных действий. Поэтому в большинстве случаев эффективность и потенциал искусственного интеллекта довольно неясны» (Čerka, Grigienė & Sirbikytė, 2015:377). Устоявшегося общепризнанного определения понятия «искусственный интеллект» сегодня не существует. Согласно нашему авторскому определению, искусственный интеллект - это искусственная сложная кибернетическая компьютерно-программно-аппаратная система (электронная, в том числе - виртуальная, электронно-механическая, био-электронно-механическая или гибридная) с когнитивно-функциональной архитектурой и собственными или релевантно доступными (приданными) вычислительными мощностями необходимых емкостей и быстродействия, обладающая: - свойствами субстантивности (включая определенную субъектность, в том числе как интеллектуального агента) и в целом автономности, а также элаборативной (имеющей тенденцию совершенствования) операциональности, - высокоуровневыми возможностями воспринимать (распознавать, анализировать и оценивать) и моделировать окружающие образы и символы, отношения, процессы и обстановку (ситуацию), самореферентно принимать и реализовывать свои решения, анализировать и понимать свои собственные поведение и опыт, самостоятельно моделировать и корригировать для себя алгоритмы действий, воспроизводить (эмулировать) когнитивные функции, в том числе связанные с обучением, взаимодействием с окружающим миром и самостоятельным решением проблем, - способностями самореферентно адаптировать свое собственное поведение, автономно глубинно самообучаться (для решения задач определенного класса или более широко), осуществлять омологацию себя и своих подсистем, в том числе вырабатывать омологированные «языки» (протоколы и способы) коммуницирования внутри себя и с другими искусственными интеллектами, субстантивно выполнять определенные антропоморфно-эмулирующие (конвенционально относимые к прерогативе человека (разумного существа)) когнитивные (в том числе - познавательно-аналитические и творческие, а также связанные с самоосознанием) функции, учитывать, накапливать и воспроизводить (эмулировать) опыт (в том числе - человеческий). Искусственный интеллект может быть децентрализованным или централизованным, может обладать собственной инфраструктурой актуаторов (исполнительных устройств). Отметим также, что меры интегрированности, многофункциональности, автономности искусственных интеллектов, равно как и их предназначения, могут разниться. III. ГЕТЕРОГЕННОСТЬ ПРАВОВЫХ СТАТУСОВ ОБЪЕКТОВ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ Согласно мнению исследователей: «если искусственный интеллект будущего оправдает ожидания, т.е. окажется мыслящим человекоподобным роботом, обладающим чувствами и эмоциями, то законы потребуется изменить для того, чтобы охватить роли роботов в обществе. Это означает, что понадобится пересмотреть существующую правовую систему и адаптировать ее согласно изменяющимся потребностям общества» (Čerka, Grigienė & Sirbikytė, 2015:377). Нормативное правовое закрепление автономного статуса искусственного интеллекта может повлечь и обязательно повлечет актуализацию вопроса о его позиционировании в качестве особой формы личности («электронное лицо» (Yastrebov, 2017a; Yastrebov, 2017b) или иной концепт) и, соответственно, о его правах (в том числе фундаментальных неотъемлемых). Очевидно, что правовой статус автономной системы с элементами искусственного интеллекта («умная» бытовая техника) и автономного объекта с полноценным искусственным интеллектом (далее, согласно нашему концепту, - кибер-субъект) не может быть одинаковым. Как не может быть одинаковым правовой статус кибер-субъекта у домашнего компаньона и у системы управления войсками или вооружениями, у банковской сервисной интеллектуальной системы и интеллектуального боевого робота. Нет смысла отрицать и не отрицается, что объекты с искусственным интеллектом должны иметь определенный правовой статус (правовое положение) в зависимости от функционала, особенностей воплощения, меры автономности и экспектативной субъектности искусственного интеллекта. Л. Соулум еще в 1992 г. сформулировал следующие аргументы, доказывающие юридическую и фактическую необоснованность, нерациональность и невозможность признания «фундаментальных прав» искусственного интеллекта (объекта с искусственным интеллектом), приведя и контраргументы к ним: 1. Искусственные интеллекты (объекты с искусственным интеллектом) и даже объекты с полноценным искусственным интеллектом (кибер-субъекты) не являются людьми и не могут позиционироваться в качестве аналогичным или тождественным людям. Это наиболее прямой из всех аргумент: можно утверждать, что только люди могут обладать конституционными правами. К примеру, четырнадцатая поправка к Конституции США устанавливает: «Все личности, рожденные или натурализованные в Соединенных Штатах, будучи субъектами юрисдикции таковых, являются гражданами Соединенных Штатов». Можно утверждать, что лишь люди (физические лица) могут рождаться, и, следовательно, искусственный интеллект не может претендовать на права граждан. То, что даже юридические лица имеют некоторые права (к примеру, собственность корпораций защищается от изъятия без справедливой компенсации), то есть что не-физические лица могут иметь гражданские права, может субъективно поддерживать умозаключение, что искусственный интеллект тоже может претендовать на определенные права (Solum, 1992:1258-1259). 2. Искусственный интеллект не обладает определенными критически важными составляющими человеческой индивидуальности (душа, сознание, интенциональность, чувства, интересы). Аргумент, что искусственные интеллекты не имеют души, из чего следует, что они не могут претендовать на конституционные права личностей, независимо от убедительности этого аргумента, в сфере правовых споров и политических дебатов потерпит неудачу, поскольку утверждение, что искусственные интеллекты не обладают душой, основывается на дискуссионном теологическом презюмировании, но политические и правовые решения обычно принимаются в соответствии с требованиями наличия публичных интересов и мотивов. Требование наличия общественных мотивов исключит использование религиозных аргументов о душах в правовом решении о конституционном статусе искусственного интеллекта. Аргумент о недостатке сознания у искусственного интеллекта трудно оценить, так как мы сами не обладаем должным пониманием того, чем же является сознание. Правовой аргумент может быть таковым: даже если искусственный интеллект может симулировать человеческий интеллект, он не будет обладать самосознанием, и следовательно - он не может претендовать на особые фундаментальные права. Ключевой вопрос здесь следующий: может ли искусственный интеллект расценивать свою жизнь как благо? С другой стороны, если сознание является атрибутом интеллекта, и если все такие атрибуты являются продуктами процессов, происходящих в мозге, и если такие процессы могут быть смоделированы на компьютере, то, быть может, и сознание может быть воссоздано искусственным интеллектом. Другими словами, если сознание может быть продуктом нейронов, то почему оно не может быть продуктом транзисторов? (Solum, 1992:1262-1265). Л. Соулум приводит контраргументы и в отношении таких позиций, как интенциональность, чувства, интересы, свободная воля (Solum, 1992:1267-1276). 3. Искусственные интеллекты, как антропогенный продукт, не могут быть чем-то бо́льшим, чем просто собственность людей. Но и в этом случае Лоуренс Соулум приводит ряд контраргументов (Solum, 1992:1276-1279). IV. НЕОПРЕДЕЛЕННОСТИ, ПОРОЖДАЕМЫЕ РАЗВИТИЕМ И РАСПРОСТРАНЕНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА, И ОСНОВНЫЕ ПОДХОДЫ К ПРАВОВОМУ РЕГУЛИРОВАНИЮ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В литературе отмечается, что использование технологий искусственного интеллекта «отличается в своих принципах деятельности от формально установленной, зачастую бюрократической модели поведения. Операционная система в сфере информационных технологий и их неотъемлемой части - технологий искусственного интеллекта - отличается спонтанностью, постоянным развитием и трансформациями. По этой причине нормативно-правовая база, регулирующая эту сферу, должна быть: во-первых, универсальной, чтобы быть эффективной, независимо от изменений в информационных технологиях, или, во-вторых, постоянно корригируемой для обеспечения ее эффективности в условиях интенсивных изменений информационных технологий. При этом постоянное внесение изменений в законодательство, как реакция на изменения в сфере информационных технологий, может оказаться труднореализуемым из-за относительно статического и выраженно последовательного характера деятельности государственных институтов власти» (Čerka, Grigienė & Sirbikytė, 2015:377). В 2012 г. Европейская Комиссия запустила проект “RoboLaw”, основной целью которого было исследование того, каким образом перспективные технологии в сфере био-робототехники (включая искусственный интеллект) могут коррелировать с национальными и общеевропейской правовыми системами, предопределяя вызовы сложившимся правовым категориям и квалификациям, создавая риски в отношении фундаментальных прав и свобод. Цель проекта состояла в разработке и предложении нормативной правовой базы, на основе которое такие технологии могли бы развиваться и должным образом контролироваться. Важным промежуточным результатом проекта “RoboLaw” оказался выпущенный 22 сентября 2014 г. отчет «Руководство по регулированию робототехники» (Palmerini et al., 2014), целью которого было учреждение надлежащей правовой среды для развития роботизированных технологий в Европе (Čerka, Grigienė & Sirbikytė, 2015:377). По мнению М. Шерера, до недавнего времени развитие искусственного интеллекта происходило в своего рода нормативном вакууме (хотя и не абсолютном); за исключением действующих в некоторых государствах норм, касающихся беспилотных транспортных средств и летательных аппаратов, на настоящий момент принято весьма небольшое количество положений, которые касаются непосредственно уникальных специфических проблем, поднимаемых искусственным интеллектом. Практически отсутствует и судебная практика по данной тематике (Scherer, 2016:356). На данную сферу в любом случае распространяется действие законодательства, основной вопрос заключается лишь в том, достаточно ли действующих в настоящее время норм, которые устанавливают общий правовой режим, либо же таковые должны быть изменены с учетом особенностей искусственного интеллекта. При этом подходы к правовому регулированию существенно зависят от того, что следует понимать под искусственным интеллектом, а также от того, какими способностями он обладает. Традиционные методы правового регулирования, такие, как, например, лицензирование продукции, контроль за исследованиями и разработками, возможность применения механизмов деликтной ответственности, являются, по мнению М. Шерера, не вполне пригодными для управления рисками, связанными с применением автономных систем искусственного интеллекта (Scherer, 2016:356). Традиционные системы административного регулирования обладают тенденцией быть чрезмерно жесткими, бюрократизированными и медленно адаптироваться к новым реалиям, что особенно проблематично при управлении новыми и быстро развивающимися технологиями, к которым, безусловно, относится искусственный интеллект (Thierer & Castillo, 2016:3). При этом реализация эффективной государственной политики в области применения искусственного интеллекта и создание соответствующего правового регулирования необходимы для обеспечения безопасности, конфиденциальности, защиты интеллектуальных прав, а также обеспечения кибербезопасности[88], с учетом особенностей сферы искусственного интеллекта. Исследователи не пришли пока к консенсусу относительно того, какого характера должно быть правовое регулирование искусственного интеллекта: 1) упреждающее универсально-тотальное, либо 2) направленное на регламентацию конкретных создаваемых систем искусственного интеллекта, в особенности - с учетом того, что эта область постоянно развивается и невозможно абсолютно точно знать, к чему приведет это развитие через некоторое время. М. Шерер указывает, что сложности могут возникать как при упреждающем правовом регулировании развития и применения искусственного интеллекта, в силу сложностей универсального определения того, что именно означает термин «искусственный интеллект», а также того, что развитие технологий в этой области может быть одновременно нескоординированным между собой по разным направлениям и непрозрачным, так и при правовом регулировании ex post в этой сфере, в силу автономного характера искусственного интеллекта, который создает проблемы контроля и предсказуемости его действий, что может приводить к неэффективности такого регулирования, в особенности, если система искусственного интеллекта несет в себе катастрофические риски (Scherer, 2016: 356-357). При этом, по мнению данного исследователя, определенные правовые механизмы все же должны использоваться для того, чтобы снижать риски для общества, которые несет в себе развитие и применение искусственного интеллекта, без препятствования развития инновациям (Scherer, 2016:373). Предметом правового регулирования в исследуемой сфере может быть как сама технология, так и сфера ее применения. Во втором случае правовые нормы или нормы технического регулирования могут быть относительно легко адаптированы к вновь возникающим технологиям, поскольку нормы не привязаны к какой-либо одной конкретной технологии. Но и у этого подхода есть свои пределы. Кроме того, следует учитывать зависимость возможностей адаптации законодательства и политики к достижениям в области искусственного интеллекта, а также зависимость возможностей адаптации искусственного интеллекта к ценностям, отраженным в законодательстве и политике, - от различных социальных, культурных, экономических и иных факторов. И такая зависимость, вероятно, будет варьироваться от государства к государству (Stanford University, 2016:45). Среди возможных подходов к правовому регулированию использования искусственного интеллекта отметим также возможность создания общего правового режима, распространяемого на все подобные системы, который предусматривает основные требования к обеспечению безопасности, а также касается иных подобных важных аспектов использования и разработки таких систем, вместе с разработкой подробных требований к применению искусственного интеллекта в конкретных сферах. Аргументом в пользу такого подхода является широта возможностей применения соответствующих технологий в самых разных областях человеческих отношений, от здравоохранения до оптимизации работы со смартфонами их пользователями. И уравнивание этих ситуаций на законодательном уровне может привести либо к недостаточной оценке всех рисков, что, в конечно счете, может приводить даже к причинению смерти, либо к установлению излишне строгих ограничений. В частности, например, в докладе об особенностях применения искусственного интеллекта, подготовленном новозеландскими организациями, перечисляются те сферы, в которых искусственный интеллект уже используется, и к ним отнесены в том числе следующие направления, для правового регулирования деятельности в рамках которых реализуются кардинально разные подходы и принципы: - транспорт и логистика (в целях транспортного планирования, оказания помощи водителю, предотвращения столкновений и т.д.); - финансовые услуги (в частности, в целях анализа данных); - электронная коммерция (например, искусственный интеллект применяется для целей таргетинга); - образование (например, в рамках курсов языкового обучения); - здравоохранение (обработка и анализ медицинских данных, содействие в постановке медицинских диагнозов); - робототехника; - машинное обучение; - вооруженные силы (Arcus et al., 2016:4-5). V. РИСКИ, СВЯЗАННЫЕ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ По словам П. Черки, Ю. Григене и Г. Сирбиките, «хотя супер-интеллект, способный к самосовершенствованию и обладающий способностью создавать искусственный интеллект, еще не создан, существующие роботы со встроенными примитивными системами искусственного интеллекта могут нести риски нанесения вреда людям… С внедрением более совершенных систем искусственного интеллекта вероятность причинения вреда человеку будет только возрастать. Искусственные интеллекты, распространенные в общественной жизни, ожидаемо будут: 1) стремиться самосовершенствоваться; 2) требовать участия в принятии решений; 3) попытаться сохранить свои служебные функции; 4) пытаться предотвратить фальсификацию их рабочих результатов, т.е. подделку их функциональных свойств; 5) стремиться получить контроль над ресурсами и эффективно использовать их. Эти устремления являются лишь промежуточными, конвергентными целями, которые приводят к конечной цели, для которой создан искусственный интеллект. Таким образом, путем достижения промежуточных целей для достижения конечной цели искусственный интеллект может нанести ущерб третьим лицам» (Čerka et al., 2015: 382). По мнению С.М. Омоундро: «даже искусственный интеллект всего лишь с возможностью играть в шахматы может быть опасным, если неправильно его спроектировать. Искусственные интеллекты, разработанные без каких-либо особых мер предосторожности, могут начать противостоять своему собственному отключению и пытаться проникнуть в другие технологические системы, чтобы создать копию самого себя. Неправильно спроектированный искусственный интеллект может попытаться приобрести контроль над ресурсами без учета безопасности других, чтобы достичь цели, для которой он был разработан» (Omohundro, 2008:483). Использование и развитие систем искусственного интеллекта может потенциально создавать спорные с точки зрения права ситуации во многих областях, среди них в докладе «Искусственный интеллект и жизнь в 2030 году» выделены следующие: - проблемы обеспечения конфиденциальности личной информации (поскольку личные данные индивида потенциально могут быть раскрыты через решения, принимаемые искусственным интеллектом); - проблемы разработки эффективной политики в сфере развития инноваций; - проблемы привлечения к гражданской и уголовной ответственности; - проблемы определения правосубъектности системы искусственного интеллекта, в частности - в каких ситуациях она может действовать в качестве посредника физического или юридического лица, заключать договоры; - проблемы сертификации систем искусственного интеллекта при использовании их для решения задач, которые, в противном случае, предполагают привлечение компетентных специалистов, деятельность которых лицензируется государством; - проблема негативного влияния использования систем искусственного интеллекта на количество рабочих мест для людей (Stanford University, 2016:46-57). Недостаточная внимательность со стороны государства к области использования искусственного интеллекта как быстро развивающейся новой технологии может привести к возникновению громких споров, критических технических сбоев и даже к причинению смерти. Если для их предотвращения или урегулирования не принимать необходимые меры, то, кроме собственного негативного эффекта, такие события могут приводить к косвенным неблагоприятным последствиям, в силу того, что законодатель может отреагировать на них наложением чрезмерных ограничений на целые отрасли промышленности, либо может не принять мер, эффективно защищающих общество[89]. VI. ПРОБЛЕМА ПЕРСОНИФИКАЦИИ И КВАЛИФИКАЦИИ ОТВЕТСТВЕННОСТИ ЗА ДЕЙСТВИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Согласно П. Черке, Ю. Григене и Г. Сирбиките, «хотя функционирование и деятельность искусственного интеллекта и не регулируются сегодня определенными нормативно-правовыми документами, тем не менее, приходится решать вопросы ответственности за ущерб, причиненный деятельностью искусственного интеллекта. Общеправовой подход гласит, что ущерб, причиненный незаконными действиями других должен быть возмещен нарушителем или лицом, ответственным за действия нарушителя. Принимая во внимание эти нормы и тот факт, что искусственный интеллект еще не является субъектом закона, возникает вопрос: кто должен брать на себя ответственность и компенсировать ущерб, причиненный действиями искусственного интеллекта?» (Čerka, Grigienė & Sirbikytė, 2015:377). Вероятность возникновения ущерба, причиненного действиями искусственного интеллекта, действительно, существует. Уже были случаи, когда ответственность за определенные действия лица перекладывалась на искусственный интеллект (Čerka et al., 2015: 381). При использовании систем искусственного интеллекта в отдельных конкретных отраслях также могут возникать конкретные вопросы, связанные с определением ответственности. Так, например, в случае использования искусственного интеллекта в медицине возникает вопрос о том, в какой мере врачи могут делегировать задачи, связанные с медицинской диагностикой, интеллектуальным системам, не подвергая себя рискам повышенной ответственности в том случае, если система допускает ошибку (Scherer, 2016: 356), и кто именно вообще должен будет нести ответственность в случае совершения такой ошибки. VII. ПОТЕНЦИАЛЬНЫЕ НАПРАВЛЕНИЯ РАЗВИТИЯ ПРАВОВОГО РЕГУЛИРОВАНИЯ В СФЕРЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В силу высокой актуальности вопроса разработки эффективного законодательства в области использования и развития искусственного интеллекта в настоящее время на уровне международных организаций, как правительственных, так и частных, а также в научной среде формируется множество предложений относительно основных особенностей и потенциально необходимых акцентов такого законодательства. Полагаем, что наибольший интерес представляет Резолюция Европейского Парламента вместе с рекомендациями Комиссии от 16 февраля 2017 г. «Нормы гражданского права о робототехнике»[90], содержащая целый ряд рекомендаций и предложений по самым разным направлениям в этой области. К примеру, в разделе «Общие принципы» Введения к Резолюции Европейского Парламента вместе с рекомендациями Комиссии от 16 февраля 2017 г. «Нормы гражданского права о робототехнике» отмечено, что законы робототехники, разработанные А. Азимовым, должны учитываться разработчиками, производителями и операторами роботов, включая автономных и самообучаемых роботов, если они не могут быть преобразованы в машинный код. Также в данном разделе отмечено, что нормы, регулирующие ответственность, прозрачность и подотчетность, необходимы, поскольку они отражают, по существу, универсальные человеческие ценности, однако они не должны негативно влиять на процессы исследований, инноваций и развития в робототехнике. Кроме того, указывается, что должен быть предпринят постепенный, прагматичный и осторожный подход в отношении регулирования будущих инициатив в области робототехники. В докладе «Искусственный интеллект и жизнь в 2030 году», разработанном на базе Стэнфордского университета в 2016 году, были предложены следующие направления разработки политики в области правового регулирования использования и разработки искусственного интеллекта: - определение способа накопления технических знаний в сфере искусственного интеллекта на всех уровнях государственного управления; - устранение предполагаемых и фактических препятствий для исследования корректности функционирования, безопасности и соблюдения конфиденциальности системами искусственного интеллекта и их воздействия на общество; - стимулирование междисциплинарных исследований воздействия систем искусственного интеллекта на общество (Stanford University, 2016:43). Американское подразделение Института инженеров электротехники и электроники (международной некоммерческой организации) предложило следующие принципы государственной политики в области развития и использования искусственного интеллекта, позволяющие использовать его в наилучших интересах общества: - подготовка высококвалифицированной рабочей силы в сфере искусственного интеллекта для органов публичной власти, промышленности и науки; - поддержка исследований и разработок в области искусственного интеллекта; - обеспечение эффективного правового регулирования развития и использования искусственного интеллекта для обеспечения общественного благосостояния посредством создания надежной индустрии искусственного интеллекта; - содействие общественной осведомленности относительно преимуществ и рисков, связанных с использованием искусственного интеллекта[91]. М. Шерер предполагает, что правовое регулирование использования и развития систем искусственного интеллекта может быть эффективным при использовании, например, следующих механизмов: - обеспечение сертификации систем искусственного интеллекта и запрет на производство и применение несертифицированных систем, что может быть серьезным стимулом для разработчиков вкладывать определенные ресурсы в обеспечение безопасности таких систем; - применение механизмов солидарной ответственности за использование несертифицированных систем искусственного интеллекта; - использование механизмов деликтной ответственности в качестве рычага для интернализации внешних факторов, связанных с системами искусственного интеллекта; - государственное финансирование исследований в области безопасности систем искусственного интеллекта с одновременным установлением санкций в отношении разработчиков, игнорирующих результаты таких исследований; - установление необходимости утверждения систем искусственного интеллекта соответствующим профильным органом публичной власти, процесс которого будет включать в себя несколько этапов тщательного тестирования на предмет безопасности, по аналогии с обеспечением, к примеру, безопасности лекарственных средств (Scherer, 2016: 398-399). VIII. ЗАКЛЮЧЕНИЕ Искусственный интеллект является центральной частью серьезной цифровой трансформации текущей промышленной революции и потенциально может оказывать существенное влияние на многие сферы жизни (Kemp, 2016:24). Искусственный интеллект уже интенсивно порождает новые существенные вызовы (и их будет все больше по мере развития и внедрения такого рода технологий), сопряженные с крайне сложно просчитываемыми рисками и поливариантностями, создает беспрецедентно много неопределенностей. И правовое регулирование в этой сфере не просто не поспевает, но уже на сегодняшний день безнадежно отстало от технологического развития. При этом правовое положение искусственного интеллекта зависит от меры и природы автономности искусственного интеллекта (системы искусственного интеллекта) от человека. Существенно значимыми элементами такой автономности, полагаем, являются: - субъектность (в том числе - автономность как интеллектуального агента, самостоятельность и самореферентность в самообучении и в выработке и принятии решений); - когнитивная и адаптационная автономность; - пространственно-кинетическая автономность; - автономность программно-энергетического управления (в том числе - самостоятельность в само-включении-отключении-перезапуске и возможность воспрепятствия внешнему отключению); - энергетическая автономность. Однако каждая из этих позиций сама по себе нуждается в фундаментальном осмыслении и понимании, чтобы выработать релевантные предложения о совершенствовании законодательства в этой сфере. По описанным выше обстоятельствам правовое обеспечение искусственного интеллекта должно развиваться последовательно (хотя и интенсивно), с учетом предварительного исследования всех рисков, которые возможно предположить на современном этапе развития технологий, и специфики использования искусственного интеллекта в различных сферах жизни. При этом существенно важно, необходимо обеспечить баланс между интересами общества и отдельных индивидов, в том числе безопасность и необходимость развития инноваций в интересах общества.

Igor V Ponkin

The Russian Presidential Academy of National Economy and Public Administration

Author for correspondence.
Email: i@lenta.ru
84, prosp. Vernadskogo, Moscow, Russia, 119606

Doctor of Legal Sciences, Professor, Institute of Public Administration and Management, The Russian Presidential Academy of National Economy and Public Administration

Alena I Redkina

Kutafin Moscow State Law University

Email: juriste.ap@gmail.com
9, Sadovaya-Kudrinskaya, Moscow, Russia, 125993

PhD in Law, Senior Lecturer, Department of Sports Law, Kutafin Moscow State Law University

  • Allen, R. J. (2004) Legal evidence scholarship meets artificial intelligence. Applied Artificial Intelligence. An International Journal. 18 (3-4), 367–389. Available from: doi: 10.1080/08839510490280003.
  • Arcus, S., Trolove, W., Caird, F., McClintock, B., McFadzien, K. & Orr, B. (2016) Determining our future: Artificial Intelligence. Opportunities and challenges for New Zealand: A call to action. Wellington, Institute of Directors and Chapman Tripp. Available from: https://www.iod.org.nz/Portals/0/Governance%20resources/Artificial%20Intelligence.pdf [Accessed 14th December 2017].
  • Ashley, K. D. (2017) Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge, Cambridge University Press. Available from: doi: 10.1017/9781316761380.
  • Barfield, W. (2005) Issues of Law for Software Agents within Virtual Environments. Presence: Teleoperators and Virtual Environments. 14 (6), 741–748. Available from: doi: 10.1162/105474605775196607.
  • Čerka, P., Grigienė, J. & Sirbikytė, G. (2015) Liability for Damages Caused by Artificial Intelligence. Computer Law & Security Review. 31 (3), 376–389.
  • Gasson, M. N. & Koops, B.-J. (2013) Attacking Human Implants: A New Generation of Cybercrime. Law, Innovation and Technology. 5 (2), 248–277.
  • Hallevy, G. (2015) Liability for Crimes Involving Artificial Intelligence Systems. Dordrecht, Springer. Available from: doi: 10.1007/978-3-319-10124-8.
  • Johnson, D. G. (2014) Technology with No Human Responsibility? Journal of Business Ethics. 127 (4), 707–715. Available from: doi: 10.1007/s10551-014-2180-1.
  • Kemp, R. (2016) Legal Aspects of Artificial Intelligence. London, Kemp IT Law. Available from: http://www.kempitlaw.com/wp-content/uploads/2016/11/Legal-Aspects-of-AI-Kemp-IT-Law-v1.0-Nov-2016-2.pdf [Accessed 14th December 2017].
  • Nissan, E. & Martino, A. A. (2004) Artificial intelligence and formalisms for legal evidence: an introduction. Applied Artificial Intelligence. 18 (3-4), 185–229. Available from: doi: 10.1080/08839510490279852.
  • Omohundro, S. M. (2008) The Basic AI Drives. In: Proceedings of the 2008 conference on Artificial General Intelligence 2008. Amsterdam, IOS Press. pp. 483–492.
  • Oskamp, A. & Lodder, A. R. (2006) Introduction: Law, Information Technology, and Artificial intelligence. In: Lodder, A. R. & Oskamp A. (eds.) Information Technology and Lawyers. Dordrecht, Springer, pp. 1–22. Available from: doi: 10.1007/1-4020-4146-2_1.
  • Palmerini, E., Azzarri, F., Battaglia, F., Bertolini, A., Carnevale, A. Carpaneto J., Cavallo, F., Di Carlo, A., Cempini, M., Controzzi, M., Koops, B-J., Lucivero, F., Mukerji, N., Nocco, L., Pirni, A., Shah, H., Salvini, P., Schellekens, M. & Warwick, K. (2014) Guidelines on Regulating Robotics (Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics). Pisa, RoboLaw. Available from: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf [Accessed 14th December 2017].
  • Popov, E. P. (ed.) (2000) Robototekhnika. Terminologiya [Robotics. Terminology]. Moscow, Institut problem peredachi informatsii RAN. (in Russian)
  • Saripan, H. (2016) Are Robots Human? A Review of the Legal Personality Model. World Applied Sciences Journal. 34 (6), 824–831. Available from: doi: 10.5829/idosi.wasj.2016.34.6.15672.
  • Sartor, G. (2009) Cognitive Automata and the Law: Electronic Contracting and the Intentionality of Software Agents. Artificial Intelligence and Law. 17 (4), 253–290.
  • Scherer, M. U. (2016) Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies. Harvard Journal of Law & Technology. 29 (2), 353–400. Available from: doi: 10.2139/ssrn.2609777.
  • Solum, L. B. (1992) Legal Personhood for Artificial Intelligences. North Carolina Law Review. 70 (4), 1231–1287.
  • Stanford University (2016) Artificial Intelligence and Life in 2030: One Hundred Year Study on Artificial Intelligence. Available from: https://ai100.stanford.edu/sites/default/files/ ai_100_report_0831fnl.pdf [Accessed: December 12th 2012].
  • Sunstein, C. R. (2001) Of Artificial Intelligence and Legal Reasoning. University of Chicago Law School Roundtable. 8. Available from: doi: 10.2139/ssrn.289789.
  • Thierer, A. & Castillo, A. (2016) Preparing for the Future of Artificial Intelligence. Washington, George Mason University. Available from: https://www.mercatus.org/system/files/Thierer-Artificial-Intelligence-Permissionless-Innovation-PIC-v1.pdf. [Accessed: 14th December 2017].
  • Yastrebov, O. A. (2017a) Artificial Intelligence in the Legal Space: The Conceptual and Theoretical Approaches. In: Yakovlev, V. F., Khabrieva, T. Ya. & Andreev, V. K., et al. (eds.) Legal Personality: The Collection of Materials of the XII Annual Scientific Readings in Memoriam of Professor S. N. Bratus. Moscow, Institute of Legislation and Comparative Law under the Government of the Russian Federation, Statut. pp. 271–283.
  • Yastrebov, O. A. (2017b) Diskussiya o predposylkakh dlya prisvoeniya robotam pravovogo statusa «elektronnykh lits» [Discussion on the prerequisites for assigning robots legal status of «electronic persons»]. Issues of Jurisprudence. (1), 189–203. (in Russian)
  • Yu, R. (2017) The Machine Author: What Level of Copyright Protection is Appropriate for Fully Independent Computer Generated Works? University of Pennsylvania Law Review. 165 (5), 1241–1270.

Views

Abstract - 1099

PDF (Russian) - 3211

Refbacks

  • There are currently no refbacks.

Copyright (c) 2018 Ponkin I.V., Redkina A.I.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.