Промпты (запросы) для генеративного искусственного интеллекта в юридическом дискурсе
- Авторы: Кирпичёв А.Е.1
-
Учреждения:
- Российский государственный университет правосудия
- Выпуск: Том 28, № 4 (2024)
- Страницы: 906-918
- Раздел: ПРАВО И ЦИФРОВЫЕ ТЕХНОЛОГИИ
- URL: https://journals.rudn.ru/law/article/view/41937
- DOI: https://doi.org/10.22363/2313-2337-2024-28-4-906-918
- EDN: https://elibrary.ru/ILOQXB
- ID: 41937
Цитировать
Аннотация
Развитие генеративных моделей искусственного интеллекта (ИИ) ставит перед юридической наукой и практикой новые вызовы, требующие осмысления правовой природы промптов (запросов к ИИ) и выработки адекватного правового регулирования. Цель: определить юридическое значение промптов и наметить перспективы их исследования в контексте взаимодействия права и ИИ. Исследование основано на анализе современной научной литературы, посвященной проблемам правового регулирования ИИ, а также на изучении первых случаев использования генеративных моделей ИИ в юридической практике и образовании. Применяются методы юридической квалификации, сравнительно-правового анализа, правового моделирования. Результаты. Промпты квалифицированы как юридические поступки (юридические факты в строгом смысле), что открывает путь к решению проблемы применимости к ним критериев авторского права. Выявлены возможности и риски использования промптов в юридической практике и образовании, обоснована необходимость стандартизации промптов и разработки специальных методик обучения юристов взаимодействию с ИИ. Промпты как инструмент взаимодействия человека и ИИ представляют собой принципиально важный предмет юридических исследований, от которого во многом зависят перспективы применения ИИ в праве. Необходимы междисциплинарные и международные исследования, объединяющие усилия юристов, специалистов по ИИ и самих генеративных моделей для выработки оптимальных правовых решений.
Полный текст
Введение
Стремительное развитие технологий генеративного искусственного интеллекта (ИИ) не вызывает сомнений. На момент публикации настоящей статьи наиболее передовыми из таких технологий являются предварительно обученные модели-трансформеры, генерирующие текст или иные данные (в том числе визуальные) в ответ на пользовательский запрос. Несмотря на риски, связанные с такими моделями, именно они открыли эпоху массового использования ИИ, и потенциал их применения далеко не исчерпан и даже не до конца очевиден (Stokel-Walker & Van Noorden, 2023). Эти модели привели к пересмотру подходов к созданию и управлению текстами, генерируемыми данными инструментами, что открывает потенциальные преимущества для людей, использующих их в качестве союзников для стимулирования творчества, доступа к знаниям или экономии времени (Gutiérrez López, 2023).
Юридическое измерение проблем, возникающих в связи с внедрением генеративных моделей ИИ в различные сферы жизни, многогранно: ставятся вопросы о правомерности использования данных для обучения ИИ, о применимости категории авторских прав к контенту, созданному ИИ, об использовании ИИ в юридической практике, в том числе в контексте прав на доступ к правосудию. Перенос сформировавшихся доктрин о физических лицах, юридических лицах, предприятиях и посредниках на ИИ неизбежен, но не позволяет бесспорно решить все проблемы (Sullivan & Schweikart, 2019). Разделяя критику Е.Б. Подузовой в отношении признания ИИ субъектом права (Poduzova, 2023:12–13), а также утверждение М. Шойфена о том, что наделение ИИ правосубъектностью основано на опасном пути переноса концепций аналогового мира на правовые вопросы цифровой эпохи (Scheufen, 2019), мы предлагаем в качестве отправной точки для решения правовых проблем в сфере ИИ рассматривать юридическое значение того элемента процесса генерации контента, который подразумевает сознательное (волевое) участие человека – запроса (промпта). Этот подход находит свои объективные основы в современных исследованиях. Так, Э. Ли справедливо отмечает, что ранее дискуссии о защите созданных ИИ произведений авторским правом велись в отношении объектов, для которых не требовался промпт-инжиниринг (Lee, 2024), то есть воздействие на результат генерации путем проработки запроса. Кроме того, модели генеративного ИИ рассматриваются как вызов всей юридической профессии (Callister, 2020).
Р. Ромеро-Каразас использует словосочетание «Prompt Lawyer» в качестве универсального ключевого слова для всех научных исследований в сфере взаимодействия правовой системы и генеративных моделей ИИ (Romero-Carazas, 2023). Эта универсальность помимо прочего определяет широту и взаимосвязь круга охватываемых вопросов, включающих в себя как правовую сущность промптов и правовые последствия их использования для генерирования контента, так и аспекты применения промптов в юридическом образовании и деятельности практикующих юристов.
Понятие промпта (запроса для генеративного искусственного интеллекта)
Для машинной обработки естественного языка существуют два основных подхода: основанный на правилах и основанный на машинном обучении (Belov et al, 2020). В первом случае весь текст анализируется по заранее определенным правилам, а во втором – обученная на больших данных программа предсказывает вывод, который стоит сделать из представленного ввода. В литературе отмечается, что модели генеративного ИИ, именуемые также большими языковыми моделями (LLMs), произвели революцию в обработке естественного языка, генерируя текст и изображения, схожие с человеческими, на основе текстового ввода (Fill & Muff, 2023). Такой ввод текстовых (а в более поздних моделях – и иных) данных называется промптом.
Промпты становятся инструментом взаимодействия сильных сторон искусственного и естественного интеллектов, что позволяет говорить о гибридном интеллекте: человеческий интеллект обучает модель и создает промпт (Seufert & Meier, 2023), он же интерпретирует результат, а вывод генерирует ИИ. Нельзя не согласиться с выводом о том, что в условиях более значимой революции письма, чем появление пишущих машинок (которые сами не создавали и не подсказывали тексты), промпты являются «прототипическими последовательностями текущего гибридного письма» и образуют новую, интересную и дидактически значимую предметную область (Steinhoff, 2023), при этом юридическое исследование промптов представляет самостоятельную ценность.
Многообразие промптов привело к появлению целой трудовой функции «промпт-инжиниринг» (разработка запросов для генеративных моделей ИИ). Возможность создания при помощи генеративного ИИ текстового, графического или иного результата, который обычно создавался творческими усилиями человека, поставила вопрос о том, являются ли результаты запросов произведениями искусства (McCormack, 2023). До появления генеративных моделей ИИ такой проблемы не было, поскольку у сгенерированных компьютером текстов, изображений, музыки отсутствовал такой признак искусства, как воплощение определенного намерения. Промпт же воплощает намерение человека, которое затем отражается в сгенерированном программой (моделью) результате.
В одном из недавних квалитативных исследований было выявлено, что художники интегрируют инструменты генеративного ИИ в свою практику в двух направлениях: генерирование и предварительное воплощение идей, а также производство конечного результата (Rajcic et al., 2024). Таким образом, роль промпта и сгенерированного результата намного сложнее, чем просто ввод запроса и получение конечного результата. К примеру, сценарист может использовать генеративный ИИ для мозгового штурма вариантов развития сценария, ученый – для подготовки расширенного плана статьи, а художник – для формирования набросков того, как могла бы выглядеть смелая идея, которую он придумал. Нетрудно представить себе иллюстратора детских книг, которому необходимо нарисовать вымышленное животное с большими ушами, и для того, чтобы не ограничиваться своей фантазией, он предлагает ИИ сгенерировать варианты его внешнего облика, а затем отбирает элементы для собственного рисунка.
Современные промпты предполагают, что ИИ имитирует межличностное взаимодействие (Zheng et al., 2023). ИИ присваивается роль, например, математика, поэта, эксперта в каком-то вопросе. Логика состоит в том, что, имитируя, например, преподавателя физики, модель даст более физически корректное объяснение какого-то явления, чем имитируя рядового пользователя Интернета.
При этом потенциальное разнообразие «выводов», производимых ИИ, непрерывно растет, что позволяет, например, говорить о принятии ИИ решений в сфере корпоративного управления (Laptev et al., 2022). Это открывает широкие перспективы для применения генеративных моделей ИИ и промптов в самых разных областях, включая юриспруденцию.
Однако возникает закономерный вопрос о правовой природе промптов и их юридических последствиях. Можно ли рассматривать промпт как объект интеллектуальной собственности? Каковы критерии охраноспособности промптов? Как решать вопросы об ответственности за результаты, сгенерированные ИИ на основе промптов? Эти и другие вопросы требуют тщательного юридического анализа.
Кроме того, большое значение имеет исследование возможностей применения промптов и генеративных моделей ИИ в юридическом образовании и практической деятельности юристов. Уже сейчас ИИ способен генерировать юридические документы, анализировать судебную практику, давать правовые консультации. Но насколько эти результаты надежны и какова роль человека-юриста в их верификации и практическом использовании? Как обучать будущих юристов эффективному взаимодействию с ИИ? Ответы на эти вопросы имеют ключевое значение для развития юридической профессии в эпоху искусственного интеллекта.
Таким образом, промпты как инструмент взаимодействия человека и генеративного ИИ представляют собой крайне перспективный, но малоизученный предмет юридических исследований. От того, насколько полно будет раскрыта правовая природа промптов, выявлены возможности и риски их применения, во многом зависит готовность правовой системы к вызовам эпохи искусственного интеллекта.
Правовая природа промптов
Для семьи континентального права, следующей аристотелевской и томической традиции, включение чего-либо в юридический дискурс означает определение его правовой природы. Это касается и явлений, ознаменовавших цифровую трансформацию. Биткойнам ищется место среди объектов гражданских прав, NFT-токены анализируются по аналогии с ценными бумагами, онлайн-заказы квалифицируются через призму оферты и акцепта.
В отношении промптов задача тем более важна, что их надлежащая квалификация может оказаться принципиально важной для определения юридических последствий и правового режима генерации вывода моделями ИИ.
Ряду национальных правовых теориях известно учение о юридических фактах – обстоятельствах или ситуациях, с которыми связываются юридические последствия (Cesarini Sforza, W. 1930). Связываются ли юридические последствия с вводом промпта? Да, но их еще только предстоит установить в рамках регуляторной политики. Например, введя промпт и получив от ИИ рекомендацию, судья будет связан необходимостью либо согласиться с ней, либо аргументированно отвергнуть. Создатель «дипфейка», вводя промпт, начинает подготовку к преступлению. Иллюстратор, используя промпт, создает наброски или финальное произведение, на которое он рассчитывает иметь права.
Исторически данное учение появилось в романских странах и подробно разработано в национальных теориях Франции, Италии, Испании, Португалии, а также в теоретических разработках по праву Квебека и стран Южной и Центральной Америки. Юридический факт при этом понимается в двух смыслах: в широком (как любое обстоятельство, с которым связаны последствия) и в строгом смысле (как противоположность юридического акта). В последнем значении к юридическим фактам относятся как природные силы, так и те действия, в которых воля была «недостаточно сильна», что безусловно оказывается трудным для применения в конкретных ситуациях (Moore, 1996). При этом цель классификации состоит, как видится, прежде всего в том, чтобы обособить юридические акты (Rouhette, 1988), теоретические представления, например, о действительности которых давно проникли и в позитивное право.
Советская юридическая теория дала более системную классификацию: юридические факты делятся на события (не требующие воли) и действия (требующие воли субъекта), в свою очередь действия делятся на юридические акты (целью которых являются именно правовые последствия) и юридические поступки – действия, которые не направлены на правовые последствия, но влекут их (Krasavchikov, 1958:156). С этой точки зрения промпт представляет собой юридический поступок – фактическое действие, которое совершается осознанно, но при этом оно не обязательно нацелено на юридический результат.
Итак, с точки зрения романской юридической теории промпты можно отнести к юридическим фактам в строгом смысле слова, а с точки зрения советской и постсоветской – к юридическим поступкам. Такая квалификация, в частности, позволяет помочь решить проблему применимости к промптам критериев авторского права.
Значение промптов для авторского права
Генеративный ИИ создает новое, соединяя элементы старого, на которых он был обучен. Сама эта технология вызывает сомнения в возможности защиты результатов генерирования авторским правом, однако эти сомнения не останавливают от использования данной технологии, учитывая потенциальный экономический эффект (Díaz-Noci, 2023). При этом любое искусство с точки зрения платонизма является имитацией чего-либо существовавшего ранее, а с точки зрения аристотелизма – опирается на существовавшую ранее систему общих мест. Таким образом, само утверждение, что художник или писатель создает новое не на базе фрагментов старого – это до известной степени фикция.
Именно судебные дела в сфере авторского права стали первым массовым вызовом правовым системам со стороны генеративного ИИ: одновременно в разных юрисдикциях перед судами встал вопрос о том, защищаются ли авторским правом сгенерированные моделями ИИ изображения и тексты (Frosio, 2024).
Строго говоря, первые официальные позиции по всему миру четко разделяются на два вывода, за которым стоит принципиально разное понимание происходящего при генерации контента ИИ.
Э. Ли критикует строгие рамки подхода к сгенерированному контенту Бюро по авторскому праву США, поскольку при их применении к обычным фотографиям большинство бы из них лишились бы защиты авторским правом. Но такова в целом строгая модель западных стран, ограничивающих перспективы защиты авторских прав создателей промптов на получившийся контент.
Напротив, другая грань представлена знаменитым решением интернет–суда Пекина по делу Li v. Liu, где суд признал объектом авторского права сгенерированный моделью Stable Diffusion визуальный контент, учитывая творческий вклад человека, который ввел в модель промпт[1].
Представленное выше толкование промпта как юридического поступка (или по романской терминологии физического юридического факта) позволяет занять более взвешенную позицию: промпт может как носить, так и не носить творческий характер (точно так же как упражнения в рифмовании слов – тоже юридические поступки по терминологии О.А. Красавчикова – могут влечь и не влечь создание именно творческого результата), который может быть оценен экспертом-искусствоведом.
Промпты и юридическая информация
Недостаточная предсказумость результата обработки искусственным интеллектом естественного языка, как указывается, «привнесла в право новую неопределенность» (Callister, 2020: 163). В целом проблемные аспекты использования генеративных моделей ИИ для работы с правовой информацией соответствуют тем направлениям, которые выделены в качестве критических при использовании таких моделей в научных исследованиях: 1) верификация человеком, 2) правила подотчетности при использовании ИИ, 3) открытость модели ИИ, 4) использование преимуществ ИИ при сохранении роли человека, 5) этическая оценка последствий (Van Dis et al., 2023). Это соответствие обусловлено тем, что большой объем информации как в юридической практике, так и в научных исследованиях создает потребность в инструментах, упрощающих ее обработку. Но одновременно с этим в отличие, например, от создания текстов художественных произведений, как наука, так и юридическая практика требуют точности полученного результата.
При этом работа юриста с ИИ усложняется спецификой юридических текстов, что уже было подтверждено в ходе первых попыток обучения ИИ работе с юридической информацией. Отмечается, что юридические тексты обычно длинные и сложные по своей природе, построены на предпочтении соблюдения формальной структуры, а не читаемости (Oliveira et al., 2024). В частности, четкая структурированность текстов договоров (разбиты на условия, ни одно из которых не является более важной информацией, чем другое), затрудняет использование популярного метода взаимодействия «чат с документом» (Roegiest et al., 2023): к запросу прикладывается документ (например, научно-популярная статья), и пользователь задает вопросы модели, которая, в свою очередь, делает выжимку, исключая все менее важное. Для текста договора такой подход влечет риск упустить то или иное условие. По аналогии можно упомянуть, что для качественных юридических текстов неприменимы технологии «скорочтения», так как они построены на предположении, что текст сочетает в себе важную и неважную информацию. Такое упрощение к собственно юридическому тексту неприменимо, поскольку он по определению должен содержать уже отфильтрованную, юридически значимую информацию.
Особо перспективным видится исследователям использование ИИ в тех случаях, когда нет четко формализованных правил. Например, предлагается натренировать модель на большом количестве случаев апеллирования судом к принципу добросовестности (лат. bona fides, нем. Treu und Glauben) для предварительной оценки добросовестности сторон (Engel, 2023). При этом первой, но решаемой проблемой является затрудненный доступ моделей к полным материалам ранее рассмотренных судами дел (Östling et al., 2024).
Заметим, что генеративные модели искусственного интеллекта построены на идее предсказывания наиболее типичного ответа. В этом отношении серьезные опасение вызывает дублирование распространенных, но не соответствующих закону позиций. К примеру, если по какой-то разновидности судебных дел принимается несколько сотен решений и определений, однотипно ограничительно толкующих закон, но затем одно из подобных решений отменяется Верховным Судом. Каково будет предсказание генеративной модели? Другая проблема состоит в том, что фактические обстоятельства могут весьма варьироваться от дела к делу, сможет ли ИИ в такой ситуации подобрать нужную норму или принятое в судебной практике ratio decidendi для конкретного случая. Здесь проблема решается обращением к теоретическим (то есть логическим) основаниям юриспруденции.
Модели предлагается тренировать воспринимать промпт как одну из посылок юридического силлогизма (Jiang & Yang, 2023). В таком случае задача ИИ состоит в определении другой посылки (то есть релевантного положения закона или вывода судебной практики) и формулирование вывода по итогам субсумции.
Управлять тем, чтобы вывод ИИ соответствовал юридической логике можно и на этапе формирования промпта, включив туда указание на то, какой метод юридической логики следует применять, например, модель IRAC (Yu, F., Quartey & Schilder, 2022). В таком случае промпт включает в себя формализованную инструкцию, как модель ИИ должна «думать».
Примечательно, что в обоих случаях используются не инновации в сфере юридической аргументации, а методы, отрефлексированные задолго до появления генеративного ИИ. Саморефлексия (или по терминологии аутопоэтических систем – самореференция правовой системы) юристов о своей практической деятельности сформировала обширную литературу по юридическим силлогизмам, субсумции, IRAC и другим моделям правовых заключений. В результате функционирование юридических ИИ моделей базируется не столько на информации о том, как работают юристы, сколько на их собственном осознании своей работы. Здесь можно увидеть риски, связанные с когнитивными ошибками, возникшими на этапе саморефлексии юристов. Однако стоит отметить, что такие подходы значительно усиливают роль людей как акторов, осуществляющих обучение модели или подготовку шаблонов промптов. Таким образом, снимается потенциальное беспокойство о неконтролируемости процесса внедрения ИИ в юридическое консультирование. Роль промпта состоит во внедрении человеческого фактора в процесс цифровой юридической консультации.
Необходимо подчеркнуть, что основной очевидной проблемой использования генеративного ИИ в правосудии все же является риск так называемых галлюцинаций: подобные часто показывают способность производить неправильные, но правдоподобные результаты (Longo, 2023:194), однако выявить галлюцинацию можно, четко понимая ожидаемый результат и порядок работы над ним, и в этом отношении также важна роль управляемости, непроизвольности промпта.
Коллектив авторов, исследующих перспективы использования генеративных моделей в юридической практике, также указывают в качестве главной проблемы отсутствие стандартизации промптов, что по экспериментальным данным приводит к непостоянным и иногда неверным результатам (Sivakumar et. al, 2023). В другом исследовании на примере судебной практики Китайской народной республики показывается, что использование надлежащих промптов-шаблонов, соответствующих и данным, на которым модель генеративного ИИ была обучена, позволяет достичь наиболее быстрых точных результатов (Sun et al, 2024). Вероятно, этот продуктивный опыт будет учтен в регуляторной политике в сфере ИИ в разных странах, однако нельзя не согласиться и с тем, что когда регулирование искусственного интеллекта касается только использования судами, существует высокий риск подрыва регулятивных потребностей для частного использования системы ИИ в юридических услугах (Schneider, 2022:250). Однако, на наш взгляд, риск есть не только в ограниченных целях регуляторной политики, но и в том, что доступ к современным моделям генеративного ИИ ограничивается на уровне частных корпораций, которые выбирают территории, для которых их услуги будут доступны. Это не соответствует ни рыночным принципам, ни принципам legal diversity и, в конечном итоге, замедляет развитие технологии.
Так, именно международный коллектив исследователей сделал важнейший вывод, что выделение в юридической информации (прежде всего в судебных актах) двух различных видов информации: юридических вопросов и фактических обстоятельств, оказывается наиболее продуктивным для того, чтобы исключить «помехи», «шум» и другие нерелевантные артефакты (Tang et al., 2022). При этом коль скоро, как показывают эмпирические данные, перспективными для юридического использования оказываются не одиночные промпты, а их цепочки (Trautmann, 2023), то последовательная дифференциация исследуемых данных в рамках такой цепочки сама по себе является важной интеллектуальной задачей юриста, взаимодействующего с системой генеративного ИИ, и это, в свою очередь, может быть натренировано в рамках современного юридического образования.
Промпты и юридическое образование
Эмпирическое исследование первых случаев внедрения генеративного ИИ в процесс юридического образования привело к выводу, что с педагогической точки зрения вызовам является необходимость подготовить студентов-юристов к наиболее эффективному использованию этих инструментов в их практике, подчеркивая при этом, что фундаментальные навыки правовых исследований и аргументации не могут быть просто делегированы языковым моделям (Choi et al., 2022:397). В предыдущем разделе настоящей статьи мы пришли к аргументам, поддерживающим этот вывод: для того, чтобы генеративный ИИ мог выполнить часть работы юриста, необходимо приложение не только творческой составляющей при формулировании промпта, но и воплощение в нем принятого в правовой системе образа правовой аргументации. Это может быть правовой силлогизм, субсумция или модель юридического мышления (legal reasoning) по типу IRAC. Чтобы научить студента проверять релевантность полученной юридической информации по форме и содержанию, необходимо начинать с выполнения аналогичных операций в ручном режиме. Проводя аналогию с математическими дисциплинам, можно сказать, что прежде использования математического программного обеспечения специалист (математик или инженер) должен производить аналогичные вычисления вручную, чтобы приобрести навыки верифицировать достоверность полученного результата.
Говоря о промптах, юридической практике и юридическом образовании, нельзя не сказать, что создание для учебных и практических целей наборов промптов может быть как учебной задачей, так и полем для коммерциализации результатов научных исследований (Saripan et al., 2023). Хотя современной тенденцией является переход от формализованных к естественным формулировкам промптов, специфика юридического дискурса такова, что релевантный с юридической точки зрения результат зависит, как было показано выше, от шаблонности промпта и формализованности интеллектуальных операций, осуществляемых или имитируемых ИИ на его основе. Поэтому можно согласиться с тем, что сама по себе разработка юридических промптов – это перспективное направление деятельности для академических исследовательских групп, которые объединяли бы как представителей профессорско-преподавательского состава, так и студентов.
Заключение
Промпты как инструмент взаимодействия человека и генеративного ИИ представляют собой не только перспективный, но и неизбежный предмет последующих юридических исследований. От того, насколько полно будет раскрыта правовая сущность промптов, выявлены возможности и риски их применения, во многом зависит готовность правовой системы к вызовам эпохи искусственного интеллекта.
Проведенная попытка анализа правовой природы промптов позволила квалифицировать их как юридические поступки (в терминологии советской и постсоветской юридической теории) или как юридические факты в строгом смысле слова (в терминологии романской юридической теории). Такая квалификация открывает путь к решению проблемы применимости к промптам критериев авторского права. В частности, промпт может как носить, так и не носить творческий характер, что должно устанавливаться в каждом конкретном случае с учетом всех обстоятельств. При этом важно учитывать, что генеративный ИИ создает новое, соединяя элементы старого, на которых он был обучен, что само по себе вызывает сомнения в возможности защиты результатов генерирования авторским правом.
Особую значимость имеет проблематика использования промптов и генеративных моделей ИИ в юридической практике и образовании. Уже сейчас ИИ способен генерировать юридические документы, анализировать судебную практику, давать правовые консультации. Однако надежность этих результатов и роль человека– юриста в их верификации и практическом использовании требуют тщательного осмысления. Ключевое значение имеет обучение будущих юристов эффективному взаимодействию с ИИ при сохранении фундаментальных навыков правовых исследований и аргументации. Понимание, что промпт – это волевой акт, знание того, как должен выглядеть предполагаемый результат – это необходимое условие борьбы с искажением ИИ смысла.
Работа юриста с ИИ усложняется спецификой юридических текстов, которые обычно длинные, сложные по своей природе и построены на предпочтении соблюдения формальной структуры, а не читаемости. Это затрудняет использование популярных методов взаимодействия, таких как «чат с документом». В то же время особо перспективным видится использование ИИ в тех случаях, когда нет четко формализованных правил, например, для предварительной оценки соответствия поведения сторон принципам права.
Для обеспечения точности и релевантности результатов генерации предлагается тренировать модели ИИ воспринимать промпт как одну из посылок юридического силлогизма или включать в промпт указание на метод юридической логики, который следует применять (например, модель IRAC). Таким образом, роль промпта состоит во внедрении человеческого фактора в процесс цифровой юридической консультации.
Основной очевидной проблемой использования генеративного ИИ в правосудии является риск «галлюцинаций» – неправильных, но правдоподобных результатов. Для минимизации этого риска необходима стандартизация промптов, учитывающих специфику правовой системы и обеспечивающих наиболее быстрые и точные результаты генерации. Решение этой задачи требует объединения усилий академического юридического сообщества, практикующих юристов и специалистов в области ИИ.
Перспективным направлением дальнейших исследований представляется также разработка юридических промптов как для учебных и практических целей, так и для коммерциализации результатов научных исследований. Сама по себе разработка юридических промптов – это перспективное направление деятельности для академических исследовательских групп, объединяющих профессорско-преподавательский состав и студентов.
Полагаем, что дальнейшие исследования в данной области должны носить междисциплинарный и международный характер, объединяя усилия ученых и практиков разных стран. Только в этом случае удастся обеспечить баланс интересов разработчиков, пользователей и общества в целом в эпоху искусственного интеллекта.
1 Yuqian Wang, Jessie Zhang Beijing Internet Court Grants Copyright to AI-Generated Image for the First Time, February 2, 2024. Режим доступа: https://www.chinaiplawupdate.com/2024/01/beijing-internet-court-releases-translation-of-li-vs-liu-recognizing-copyright-in-generative-ai/
Об авторах
Александр Евгеньевич Кирпичёв
Российский государственный университет правосудия
Автор, ответственный за переписку.
Email: aekirpichev@yandex.ru
ORCID iD: 0000-0002-0043-5069
SPIN-код: 4949-0036
доктор юридических наук, доцент, заведующий кафедрой предпринимательского и корпоративного права, профессор кафедры предпринимательского и корпоративного права
117418, Российская Федерация, г. Москва, Новочерёмушкинская ул., д. 69Список литературы
- Белов С.Д., Зрелова Д.П., Зрелов П.В., Коренков В.В. Обзор методов автоматической обработки текстов на естественном языке // Системный анализ в науке и образовании. 2020. № 3. С. 8-22. https://doi.org/10.37005/2071-9612-2020-3-8-22
- Callister, P.D. (2020) Law, Artificial Intelligence, and Natural Language Processing: A Funny Thing Happened on the Way to My Search Results. Law Library Journal. 112(2), 161-212.
- Cesarini Sforza, W. (1930) Ex facto oritur ius. In: Del Vecchio, G. Studi filosofico-giuridici dedicati a Giorgio del Vacchio: nel XXV anno di insegnamento (1904-1929). pp. 12-12.
- Choi, J. H., Hickman, K. E., Monahan, A. B. & Schwarcz, D.B. (2022) ChatGPT Goes to Law School. Journal of Legal Education. 71(3), 387-400.
- Díaz-Noci, J. (2023) Fusión o plagio? La importancia de la originalidad y el derecho de transformación de la obra en la producción informativa mediante IA. Hipertext.net. (26), 69-76. https://doi.org/10.31009/hipertext.net.2023.i26.11
- Engel, C. (2023) Treu und Glauben: Frag GPT. MPI Collective Goods Discussion Paper. No. 2023/10. Available at: https://ssrn.com/abstract=4557719 [Accessed: 15th December 2023].
- Fill, H.-G. & Muff, F. (2023) Visualization in the Era of Artificial Intelligence: Experiments for Creating Structural Visualizations by Prompting Large Language Models. arXiv preprint, arXiv:2305.03380v2. https://doi.org/10.48550/arXiv.2305
- Frosio, G. (2024) Generative AI in Court. In: Koutras, N. & Selvadurai, N. (eds.). Recreating Creativity, Reinventing Inventiveness: AI and Intellectual Property Law. 1st ed. London, Routledge. pp. 1-36. https://doi.org/10.4324/9781003260127
- Gutiérrez López, K.M. (2023) Inteligencia artificial generativa: irrupción y desafíos. Revista Enfoques. 4(2), 57-82.
- Jiang, C. & Yang, X. (2023) Legal syllogism prompting: Teaching large language models for legal judgment prediction. In: Proceedings of the Nineteenth International Conference on Artificial Intelligence and Law (ICAIL '23). Association for Computing Machinery, New York, NY, USA, pp. 417-421. https://doi.org/10.1145/3594536.3595170
- Красавчиков О.А. Юридические факты в советском гражданском праве. М. : Госюриздат, 1958. 183 с.
- Лаптев В.А., Чуча С.Ю., Фейзрахманова Д.Р. Цифровая трансформация инструментов управления современными корпорациями: состояние и пути развития // Правоприменение. 2022. Т. 6. № 1. С. 229-244. https://doi.org/10.52468/2542-1514.2022.6(1).229-244
- Lee, E. (2024) Prompting Progress: Authorship in the Age of AI. Florida Law Review. (76). Available at SSRN: http://dx.doi.org/10.2139/ssrn.4609687
- Longo, E. (2023) La “giustizia digitale” tra nuove forme di efficienza e garanzia dei diritti costituzionali. La Nuova Giuridica - Florence Law Review. (2), 187-202.
- McCormack, J., Cruz Gambardella, C., Rajcic, N., Krol, S.J., Llano, M.T., & Yang, M. (2023) Is Writing Prompts Really Making Art? In: Johnson, C., Rodríguez-Fernández, N. & Rebelo, S. M. (eds.). Artificial Intelligence in Music, Sound, Art and Design. Cham, Springer Nature Switzerland. pp. 196-211.
- Moore, B. (1996) De l’acte et du fait juridique ou d’un critère de distinction incertain, Revue juridique Thémis. 30(2), 281-312.
- Oliveira, V., Nogueira, G. & Faleiros, T., et al. (2024) Combining prompt-based language models and weak supervision for labeling named entity recognition on legal documents. Artificial Intelligence and Law. https://doi.org/10.1007/s10506-023-09388-1
- Östling, A., Sargeant, H., Xie, H., Bull, L., Terenin, A., Jonsson, L., Magnusson, M. & Steffek, F. (2024) The Cambridge Law Corpus: A dataset for legal AI research. University of Cambridge Faculty of Law Research Paper. No. 11/2024. Available at SSRN: http://dx.doi.org/10.2139/ssrn.4763429
- Подузова Е.Б. «Искусственный интеллект» и технологии «искусственного интеллекта» в договорном праве: цивилистическая концепция : монография / отв. ред. Л.Ю. Василевская. М. : Проспект, 2023. 336 с
- Rajcic, N., Llano, M. T., & McCormack, J. (2024) Towards a difractive analysis of prompt-based generative AI. In: Wilson, M.L., Toups Dugas, P. & Shklovski, I. (eds.). Proceedings of the 2024 CHI Conference on Human Factors in Computing Sytems Article 844 Association for Computing Machinery (ACM). https://doi.org/10.1145/3613904.3641971
- Romero-Carazas, R. (2023) Prompt lawyer: a challenge in the face of the integration of artificial intelligence and law. Gamification and Augmented Reality. (1), 7-7. https://doi.org/10.56294/gr20237
- Rouhette, G. (1988) La doctrine de l'acte juridique: sur quelques matériaux récents. Droits. (7), 29-35.
- Saripan, H., Mohd Shith P., Nurus Sakinatul Fikriah, Abu Hassan, R. & Abdullah, S.M. (2023) Generative artificial intelligence prompt-kit for enhanced legal learning and analysis. In: International Teaching Aid Competition. Universiti Teknologi MARA, Kedah, pp. 282-288.
- Scheufen, M. (2019) Künstliche Intelligenz und Haftungsrecht: die e-Person aus ökonomischer Sicht. Wirtschaftsdienst. 99(6), 411-414. https://doi.org/10.1007/s10273-019-2466-0
- Schneider, G. (2022) Legal Challenges of AI Supported Legal Services: Bridging Principles and Markets. The Italian Law Journal. 08(01), 244-262.
- Seufert, S. & Meier, C. (2023) Hybrid Intelligence: Collaboration with AI Assistance Systems in Knowledge-Intensive Areas. HMD Praxis der Wirtschaftsinformatik. 60(6), 1194-1209. https://doi.org/10.1365/s40702-023-01012-9
- Sivakumar, A., Gelman, B., Simmons, R., Yu, E. & Sharp, M. (2023) Standardized nomenclature for legal prompting in generative language models. University of California, Los Angeles. Preprint. https://doi.org/10.21203/rs.3.rs-3308564/v1
- Steinhoff, T. (2023) Der Computer schreibt (mit): Digitales Schreiben mit Word, WhatsApp, ChatGPT & Co. als Koaktivität von Mensch und Maschine. MIDU. 5(1), 1-16. https://doi.org/10.18716/OJS/MIDU/2023.1.4
- Stokel-Walker, Ch. & Van Noorden, R. (2023) The promise and peril of generative AI. Nature. 614(1), 214-216.
- Sullivan, H.R. & Schweikart, S.J. (2019) Are Current Tort Liability Doctrines Adequate for Addressing Injury Caused by AI? AMA Journal of Ethics. 21(2), E160-166. https://doi.org/10.1001/amajethics.2019.160
- Sun, J., Huang, S. & Wei, C. (2024) Chinese legal judgment prediction via knowledgeable prompt learning. Expert Systems with Applications. (238), 122-177.
- Tang, Y., Qiu, R. & Li, X. (2022) Prompt-based Effective Input Reformulation for Legal Case Retrieval. arXiv preprint arXiv:2309.02962
- Trautmann, D. (2023) Large Language Model Prompt Chaining for Long Legal Document Classification. In: SwissText'23: The 8th edition of the Swiss Text Analytics Conference - Generative AI & LLM, June 12-14, 2023, Neuchâtel, Switzerland.
- Van Dis, E.A.M., Bollen, J., Zuidema, W., van Rooij, R. & Bockting, C.L. (2023) ChatGPT: five priorities for research. Nature. (614), 224-226.
- Yu, F., Quartey, L. & Schilder, F. (2022) Legal prompting: Teaching a language model to think like a lawyer. arXiv preprint arXiv:2212.01326.
- Zheng, M., Pei, J. & Jurgens, D. (2023) Is “A Helpful Assistant” the Best Role for Large Language Models? A Systematic Evaluation of Social Roles in System Prompts. In: SwissText’23: The 8th edition of the Swiss Text Analytics Conference - Generative AI & LLM, June 12-14, 2023, Neuchâtel, Switzerland.
Дополнительные файлы










