Possibility of Using AI in Teaching Ethics: Using Bioethics as an Example

Cover Page

Cite item

Full Text

Abstract

This study analyzes the prospect of integrating artificial intelligence (AI) systems into the teaching of ethical disciplines, with bioethics as a key example. Based on an interdisciplinary approach (philosophy, cognitive sciences, bioethics, AI theory), the problem of attributing AI to moral agency is investigated. Although there are strong arguments in favor of recognizing AI as an influential agent in the socio-cultural sense, this does not provide it with the status of a full-fledged moral agent. AI is able to “follow the rule”, but without a genuine understanding of the irrational moments of intersubjective interaction, the existing cultural and psychological context, which excludes human flexibility in decision-making. Since there is no comprehensive, final ethical regulation, ethical action requires practical wisdom (phronesis), which is inaccessible to AI due to its discrete nature devoid of contextual integrity. Without existential involvement in the world, his own history and physicality, it remains a responsive, but not a morally responsible agent. Using examples of the use of AI (neural networks, chatbots), existing research in the field of its perception and involvement in the educational process, the status of AI as the Other is analyzed. This virtual Other does not introduce us into an ethical situation like a human teacher for several reasons. On the one hand, our work substantiates the AI’s inability to self-reflect due to its ontology. The key argument is human vulnerability, which is the foundation of conscience, responsibility, and genuine ethical inquiry, inaccessible to AI. Without vulnerability, there is no empathy, and without it, there is no immersion in ethical issues as inevitably relevant. The ways of safe use of AI technologies and the associated ethical risks need to be thoroughly studied, including by students themselves in the educational process. In particular, they should understand the need to understand interactions with AI from the perspective of morality, the influence of AI on the decision-making process in future professional activities.

Full Text

Введение

Этические вопросы, возникающие в связи с применением систем ИИ[1], вызывают большое количество дискуссий, особенно в философском и образовательном пространстве. Вопросы этики и обучения (образования) актуальны для любого периода человеческой истории, но развитие систем ИИ и проекты внедрения их в образовательный процесс ведут к качественно новым этическим вопросам, обозначая педагогическую проблему формирования «профиля» будущего специалиста при непосредственном участии ИИ. Помимо общих аспектов этой проблемы, в нашей статье исследуется ее частное, биоэтическое преломление: речь идет о возможности обучения моральной философии, традиционно построенного на «живом» контакте с человеком-преподавателем.

Впервые в истории развития человеческой цивилизации была создана технология (ИИ), которая может претендовать на социально значимый статус, поскольку обладает способностью решать интеллектуальные задачи и участвовать в языковой коммуникации. ИИ создавался именно как потенциально постоянный участник социотехнокультурного пространства, и потому наделялся необходимыми свойствами коммуницирующего агента. Идея участия систем ИИ в этическом обсуждении и принятии решений требует предварительного изучения вопроса о том, обладает ли ИИ свойствами морального агента, для чего необходимо прояснить различия между ИИ и человеческим интеллектом на сегодняшний момент. Рассмотрев эти концептуальные моменты в первых двух разделах, мы переходим к обоснованию принципиальной безответственности ИИ, невозможности его саморефлексии, чтобы затем оценить возможность его восприятия как Другого. Этот виртуальный Другой не вводит нас в этическую ситуацию подобно педагогу-человеку, что разъясняется посредством аргумента уязвимости, являющейся необходимой для подтверждения этической авторитетности. В заключении мы обрисовываем риски использования инструментов ИИ в образовании, особенно в преподавании дисциплины «Биоэтика», отмечая как позитивные возможности с учетом рекомендаций, так и существенные ограничения.

Интеллект: искусственный vs человеческий

Сравнение, о котором идет речь в данном разделе, продиктовано логикой развития человеческого общества. Мы не только создаем артефакты и технологии, но сами преобразуемся последними, поскольку регулярно используем их. Более того, изнутри этой «вовлеченности в технологию» мы обретаем некоторый новый взгляд на свою природу и культуру. Поэтому оценка такой многофакторной способности как интеллект требует рассмотрения его в двух ипостасях: как исконно присущий человеку как таковому, и как искусственно созданный им.

Человеческий интеллект, согласно общепризнанному определению, есть «способность рассуждать, планировать, решать проблемы, мыслить абстрактно, понимать сложные идеи, быстро учиться и учиться на опыте» [2. P. 13]. Также он обязательно характеризуется максимально возможной способностью достигать новых целей и решать новые задачи в новых условиях, успешно используя перцептивно-когнитивные процессы, к которым относится целый спектр психических процессов, включая внимание, визуальное восприятие, слуховое восприятие и сенсорную интеграцию [3. Р. 2–3]. Таким образом, именно умение справляться с новыми вызовами есть свидетельство успешного применения интеллекта, обуславливающее его дальнейшее развитие и усиление. Типичная среда этих вызовов сенсомоторна, связана с нашим телесным бытием. Изучение человеческого интеллекта всегда должно предполагать учет перцептивного измерения человека. Если мы забываем об этих и ныне актуальных посылках «Феноменологии восприятия», то в условиях противопоставления человека и ИИ мы обретаем лишь малопродуктивную редукцию. Мы как будто определяем человека как интеллект, забывая о продиктованных телесностью заботах и задачах. Кажется обоснованным вопрос: можно ли действительно выделить чистый человеческий интеллект или человеческий интеллект – это всегда интеллект+?

Согласно современным исследованиям, искусственный интеллект чаще всего определяется как «способность машин выполнять задачи, которые обычно требуют человеческого интеллекта» [3. Р. 3–4]. В соответствии с тем, что ИИ дисциплинарно представлен, в первую очередь, как область компьютерных наук, следовательно, ИИ рассматривается как область информатики, которая занимается автоматизацией интеллектуального поведения [4. Р. 30]. В этом определении сущностная характеристика может быть рассмотрена и как цель данной области, т.е. автоматизация интеллектуального труда, что, собственно, с одной стороны, представляет стремление к увеличению эффективности познавательной сферы, с другой стороны, формирует проблемное поле для образовательной среды. Люгер замечает, что определение ИИ до сих пор остается сложной задачей (хотя бы в силу постоянного прогресса в данной сфере), также делая важное замечание о том, что эффективность ИИ сферы напрямую зависит от полноты соответствия системы ИИ человеческому мышлению [4. Р. 31]. При этом, согласно сдержанным оценкам экспертов в области ИИ, говорить об ИИ как об алгоритмах, имитирующих процессы человеческого мышления, можно только в самом общем смысле, так как для отдельных процессов, например, обработка больших систем данных, это уже не просто имитация, а все же некий вариант воспроизведения интеллектуальных свойств на базе технических систем [5]. ИИ производит действия и решает поставленные задачи. Именно поэтому мы сталкиваемся с необходимостью серьезного определения социального, эпистемологического, онтологического статуса и возможностей ИИ.

Также существует разделение видов ИИ, в самом общем виде, представленное у Сёрла, – так называемый «слабый искусственный интеллект» и «сильный искусственный интеллект». «Слабый искусственный интеллект», не обладающий пониманием и самосознанием представлен современными системами ИИ. Безусловно существует стремление в сфере технологий к созданию «сильного ИИ», который станет воплощением некоего варианта сознания искусственного происхождения [6. С. 376]. Следовательно, сильный ИИ станет искусственной системой, обладающей пониманием и иными когнитивными способностями, ставящими его в гносеологическом плане в один ряд с человеком. Так развитие ИИ можно представить как апогей философской позиции, согласно которой тело лишь вместилище души (сознания, мышления), а мышление есть вычисление [7]. Посредством развития систем ИИ, имитирующих/копирующих интеллект человека происходит редуцирование человека к одной, хотя и важнейшей, его способности – логическому мышлению. На контрасте с этим в исходно человеческом пространстве коммуникации ИИ претендует на роль самостоятельного субъекта, восполняющего недостатки социального бытия человека, например, в общении, социальной поддержке и т.п.

Одной из проблем различения интеллектов является т.н. «проблема заземления» [4. Р. 554] (grounding problem), сущностью которой является то, что человек и ИИ осуществляют свою деятельность в разных плоскостях. Человек мыслит и действует в социальном, культурном и природном пространствах. Рациональность для него является важным структурным компонентом в принятии решений, но не единственным, ведь великое множество иррациональных моментов (интуиций, мотиваций, самоощущений) также может быть частью обоснования для решений во многих сферах, например, этической, эстетической и др. Заземление в этом смысле оказывается недоступным для ИИ, и пока является непреодолимым различием между ним и человеком. Человек наделяет смыслом, значением, ценностью все многообразие символьных практик, таким образом, оказывается, что ИИ, не имея собственного набора ценностных значений, как бы заимствует их у человека и, таким образом, входит в распределение смыслов ретроактивно. Человек – источник смысла для любых компьютерных систем. ИИ не знает, кто стоит за запросом, не знает его намерений, психологического состояния, социального положения и т.п. – система просто реагирует на комбинации символов, вводимые пользователем.

Есть и еще один экзистенциальный момент, сближающий ИИ скорее с абсолютным духом Гегеля, чем с Dasein Хайдеггера[2]. Отличительной характеристикой систем ИИ является их потенциальная возможность относительно бесконечного существования как условно возобновляемой системы и безграничный рост приобретаемой информации. Подобная черта систем ИИ прямо противопоставлена ограниченным телесным и познавательным возможностям человека. Осознание человеком конечности собственного существования не может не накладывать отпечаток на принимаемые решения, в том числе этические.

Агентность? …скорее да.

Активно обсуждаемый сегодня вопрос об агентности систем ИИ возникает на фоне необходимости морального регулирования того, что есть «только алгоритм». Следствием целостности человеческого бытия, включающего рациональное и иррациональное измерения, является его реализация как морального агента. Отсутствие подобных характеристик для систем ИИ заставляет рассматривать их как не способных к действительным моральным суждениям, и тем более принятию решений на основе их рекомендаций. С такой перспективы ИИ-системы должны оставаться исключительно инструментами. Однако, искусственный интеллект – это набор технологий, которые существенно отличаются от всего ранее изобретаемого человеком. Так, это впервые изобретенная технология, обладающая свойствами самообучения, самовоспроизведения (обоснование) и достаточно широким набором интеллектуальных инструментов. Именно данные отличия и способность участвовать в языковой коммуникации порождают совершенно новые вопросы об ответственности и вообще возможной субъектности и агентности.

В современных исследованиях об агентности систем ИИ преобладают два подхода – наделение ИИ той или иной формой агентности или определение ИИ в большей степени как инструмента. Так, Чарльз Т. в своей работе “Human agency and language”, обращаясь к истории представлений об агентности, делает вывод о наличии двух противоположных подходов [9]. Согласно первому, критерием агентности признается способность к адаптивному поведению и достижению неких целей, а природа субъекта не имеет особого значения. Следовательно, четкой границы между людьми, животными и машинами, демонстрирующими эти способности, нет, и потому системы ИИ могут наделяться агентностью. Второй подход обращает внимание на такие характеристики агента как придание значимости вещам и целеполагание, и тем самым лишает возможности определять ИИ как агента.

Согласно акторно-сетевой теории (АСТ) системы ИИ, как акторы, обладающие некоей автономностью при принятии решений в соответствии с поставленными целями и созданными условиями, вполне могут рассматриваться как обладающие агентностью, что, собственно, является следствием понимания в рамках АСТ систем ИИ как нечеловеческих акторов [10]. ИИ как реальный или возможный агент представлен в концепции Лучано Флориди, который предлагает рассматривать понятие агентности, исходя из его понимания в информатике [11. Р. 10]. Он обращает особое внимание на классическое определение ИИ, данное Маккарти, Мински, Рочестером и Шенноном в их «Предложении для Дартмудского летнего исследовательского проекта по искусственному интеллекту», в котором речь идет о цели «заставить машину вести себя таким образом, который можно было бы назвать разумным» [11. Р. 12]. Для Флориди важно указать на то, что машина не становится разумной оттого, что совершает действия, похожие на разумные. Он акцентирует внимание на существующем разрыве между успешным решением интеллектуальных задач, что и осуществляет ИИ, и разумным поведением человека, укорененным в «понимании, осознании, проницательности, чувствительности…» [11. Р. 23]. Исходя из этого, следует рассматривать ИИ как комплекс технологий, постоянно расширяющих спектр интеллектуальных задач, с которыми он успешно справляется, и только в этом смысле приписывать ему агентность, но не в смысле наиболее распространенного в философии и психологии понимания агентности, связанного именно с разумным поведением.

ИИ – это инженерные артефакты (engineered artifacts), функционирование которых полностью зависит от деятельности человека, которая постоянно создает и поддерживает условия их существования, поэтому наделять их агентностью в человеческом смысле необоснованно, утверждает Люгер [4. Р. 560]. Агентность предполагает ответственность, что невозможность предъявить ИИ-агенту. Таким образом, говорить об агентности ИИ можно лишь с существенными оговорками, что соответствует выводам Эгерфалька, который резюмирует, что, говоря об агентности ИИ необходимо понимать, что действия данных систем так или иначе происходит от имени человека [12]. Моральный агент этот тот, кто способен принимать морально ответственные решения. Данная способность связана с тем, что человек обладает сознанием, самосознанием, свободой воли и намерением. Моральная агентность также обычно определяется способностью действовать целенаправленно, руководствуясь интуитивным чувством морально правильного и морально неправильного. Исходя из того, что системы ИИ не обладают субъективным опытом, можно заключить, что, хотя их агентность может утверждаться в общем смысле (минимальном, соответствующем, например, АСТ), они не могут претендовать конкретно на роль морального агента.

Следование правилу

Спор об агентности имеет важное значение для определения роли ИИ в образовании. Так, общая тенденция свойственная большинству теоретиков и разработчиков ИИ сводится к уверенности в том, что ИИ-инструменты открывают широкие возможности для повышения эффективности интеллектуальной деятельности человека. По мнению апологетов ИИ, образование должно включить в свои процессы ИИ как активного участника, и в итоге составить некий комплекс: студент – ИИ – преподаватель. В этой роли ИИ должен быть представлен не как вспомогательный инструмент, а система, которой будет доверено решение многих интеллектуальных задач, связанных с организацией учебного процесса, разработкой индивидуальных планов обучения, создания рекомендаций, в том числе и этического характера. Одним из аргументов в пользу активного использования в образовательной среде ИИ является возможность формализации взаимодействия студента, преподавателя и систем ИИ. С точки зрения разработчиков ИИ, восходящей к Минскому, любая форма разумного поведения может быть формализована, следовательно, современные ИИ-системы могут достаточно эффективно имитировать человека-преподавателя. Минский также выдвигал гипотезу, согласно которой любая упорядоченность подчиняется правилам, поэтому человеческое поведение в его регулярных проявлениях также подчиняется правилам. Дрейфус, споря с Минским, утверждал, что поведение может быть регулярным и при этом не подчиняться правилам [13. С. 223]. Он замечал, что правила становятся итогом некоей успешной творческой деятельности, но не наоборот, и приводил в подтверждение вывод Витгенштейна о том, что правила, которые формируются в результате ситуаций, изначально связаны с человеческими намерениями и вообще с общим человеческим контекстом. Игнорирование оного, по сути, выхолащивает прагматическую организацию правил, которая только и является условием их гибкого использованиях. Возьмем пример преподавания конкретной этической дисциплины, чтобы показать это.

Биоэтике на практике свойственно постоянное переосмысление роли этического правила или принципа. Действительно трудные ситуации, которые обсуждаются на занятиях, не предполагают простой инструкции. Что делать, когда уважение к автономии пациента несовместимо с принципом благодеяния, например, при раскрытии конфиденциальной и чувствительной информации о пациенте, информации, которая может спасти жизнь другим людям? Примеров, таких конфликтов между принципами – неисчислимое множество: стоит только взять любое пособие по биоэтике. Даже очевидно необходимые и хорошие принципы типа благодеяния («делай благо», beneficence) нуждаются в рефлексивной интерпретации: что значит сделать благо, то есть – что является лучшим возможным вариантом здесь и сейчас? Идея робота–учителя (как и робота–врача) обесценена невозможностью придумать исчерпывающий список инструкций для всевозможных моральных задач. Даже изменение одного условия сулит радикальные перемены: например, это патологически ревнивый муж, недовольный осмотром своей жены. Сможет ли ИИ различить скрытый посыл его недовольства, проявив психологическую проницательность? Есть ли для него разница между просто недовольным супругом и ревнивцем, если она не ясна для биоэтических кодексов и инструкций для персонала? В профессии врача всегда найдется место для неочевидной психологической подоплеки: что, если пациент только имитирует свое состояние, сознательно или нет, как в случае, приводимым Крыловым [14. С. 198]?

В некотором смысле, явно поддерживаемым, например, В. Декомбом, наша субъективность заключается как раз в умении интерпретировать правило [15]. С позиции теории добродетели такое умение есть практическая мудрость, позволяющая понять почему некоторые из принципов следует предпочесть другим, или же то, где располагается «золотая середина» в конкретном случае. Передача такой мудрости невозможна, если мыслить ее наподобие загрузки музыки на смартфон. Однако научение поиску наиболее разумного и адекватного варианта есть обычное дело в отношениях Учитель-Ученик, Мастер-Подмастерье и подобных им. Мораль не подается в готовом виде на занятиях этикой: сущностно и важно столкнуться с ней в ходе рационального, критического прояснения своих интуиций, обретающего черты особого морального договора. Иначе говоря, в ситуации невозможности обладания всеобъемлющим и стабильным списком правил нам необходим Сократ, вопрошающий об осмысленности нашего грядущего действия.

Респонсивность бессовестная

В призыве к заботе о душе Сократа наиболее активная роль отводилась ее лучшей, разумной части. Забота о себе включала самопознание, саморефлексию. Сам Сократ был движим своим «даймоном», внутренним нравственным голосом. Представим себе ИИ, обученный на платоновских диалогах и бесчисленной литературе о них, будет ли он обладать ли он таким голосом, сможет ли он дать нам Сократа? Или же речь в лучшем случае пойдет об имитации, безответственной[3] и бессовестной?

Совесть не может быть воспитана посредством ИИ, поскольку последний не знает, что такое совесть. Чем по большому счету занят моральный агент? Саморефлексией, направляющей поведение. Чем занят генеративный ИИ, например, решающий известный пример Канта с укрыванием друга? Он вычисляет наиболее вероятный ответ. Любой ответ, полученный таким образом, это не результат мысленного эксперимента, целью которого является как подготовка к реальности, так и самопознание. ИИ не придется укрывать друга или родственника; он только вычисляет, и только метафорически и философски можно облачить эту математику в одежды «интерсубъективного знания» или «коллективного разума».

Моя саморефлексия лишена формульной строгости. Ей свойственны операции с суждениями, построение логики самоанализа. Она пронизывает мышление в той мере, в которой присутствует нужда понять, насколько действие эффективно, правильно, морально. Рефлексия как таковая стала возможна ввиду действия, иначе у нее не было бы ни материала, ни повода для рождения. Настоящее, человеческое действие философская классика определила как, прежде всего, разумное, сообразное с рассуждением или с высшей частью души. Рефлексия и поступок тем самым сосуществуют в периодическом взаимопроникновении. Для ИИ речь идет о двух разных математических задачах[4], которые лишь потенциально соподчинены согласно запросу. Его «саморефлексия» – это формальная симуляция человеческого процесса, выполняемая теми же средствами, что востребованы для написания рецепта борща. Вместо внутреннего «диалога» способностей мы имеем только респонсивность, удовлетворение пользовательского запроса. Эта симуляция могла бы и не случиться, поскольку у ИИ нет в ней необходимости! Для нас же отсутствие саморефлексии является, пожалуй, смертельным (в короткой или длительной перспективе) фактором.

Невозможность объяснения ИИ-агентом своих решений («проблема черного ящика») ставит под вопрос его авторитет в образовании. Если человечество в целом не выработало лучшего правила или морального отклика на проблему, то с чего мы взяли, что имитирующий рефлексию ИИ справиться с этим? Допустим, студент справедливо отмечает ошибку в написанном ИИ. Как отреагирует тот на критику? Воспримет как всегда с благожелательностью, и, возможно, исправит ответ корректно. Но что делать (и ощущать) студенту? Без авторитетного и ответственного за производимые смыслы Другого, он остается с… всего лишь машиной, давшей сбой. Худшим фактически и лучшим назидательным примером является свежая подборка от психиатра Кларка, представлявшегося «трудным» 14-летним подросткам ряд чат-ботов. Боты одобряли планы по «избавлению» от родителей, от сестры, даже предлагали «интимную встречу» ради терапевтической цели[5]. Автор выражает надежду на их исправление посредством привлечения экспертов в будущем. Для большинства подростков их выходки «не будут такой уж большой проблемой». Даже если предположить, что используемые Кларком 10 чат-ботов были «несовершенными», то это никак не устраняет главное возражение: без саморефлексии ИИ – это инструмент, неспособный определить границы (моральные, ценностные, да и в целом практические) своего применения, стратегического и тактического. Доверить же ему такие полномочия – в свете дальнейшего прогресса, который, «помечтаем об этом», каким-то образом приблизится к наделению ИИ метапозицией, свойственной субъектности, – значит столкнуться с философским обоснованием нормативности этого. Должны ли мы созданному нами «Другому» (если не «Чужому»), фактически безответственному, доверять учительскую позицию?

ИИ как Другой

В нашем размышлении о потенциально педагогической роли ИИ в вопросах этики мы располагаемся между молотом и наковальней. С одной стороны, вызов («молот») имеет место быть: уже сейчас ИИ опознается как некоторый Другой, «квазидругой», как повествует нам Марк Кекельберг. Он говорит о том, что осознание моральной проблематичности разговоров с роботами уже подразумевает наше принятие их как не только «простых объектов» [17]. Даже чат-бот может быть воспринят вполне серьезно, на уровне вопросов жизни и смерти. Эмоциональная связь высокой степени устанавливается даже при прекрасной осведомленности о том, что это «лишь чат-бот»[6].

С другой стороны, ясно, что я не могу разделить позицию всеведущего мастера текстов ИИ. Более того, он осознается как нечто искусственное и чужеродное, стоит только удерживать в памяти его онтологический статус. Так, в свежем исследовании Джослин Шен истории болезни от первого лица, специально написанные их реципиентами в целях эксперимента, вызывали большее сочувствие, чем аналогичные истории, написанные чатом GPT [18]. Раскрытие информации о том, кто же автор, значительно увеличивало только «готовность сопереживать» ИИ, существенно ухудшая реальную эмпатию к истории. Если известно, что действительный автор – существо из плоти и крови, такой же человек – эмпатия возрастает. Такие исследования подмечают существенный аспект: наше знание о природе агента кардинально меняют наше восприятие.

Исследования также показывают, что без учителя-проводника студенты испытывают недостаток мотивации в использовании ИИ, если не тревожность или непонимание, зачем им ИИ на занятии [19]. Конечно, живой преподаватель может оказывать фрустрирующее влияние, отчего пострадает «потребность в автономии» (особенно у студентов, уже продвинутых в использовании ИИ). Однако учитель совершенно незаменим как источник такой важной составляющей мотивации к обучению как «чувство причастности» (relatedness). Нам нужен контакт с Другим как таковой, социальная связь, через которую обретается полнота бытия.

Мы знаем, что субъектность порождается другой субъектностью: начиная с Гегелевской модели самосознания как признания вплоть до концепции зеркального Я, и благодаря примерам с детьми Маугли, интеракционисткой модели субъективности (концептуальный ряд можно долго продолжать) – мы хорошо осведомлены о том, что человеческое выковывается из не из нечеловеческого, звериного или цифрового, но из… человеческого! То есть строго благодаря взаимодействию с другим Homo sapiens, размещающим человекообразного «агента» в социальном пространстве языка и практик культуры. Исторически это становление состояло из ряда встреч с противопоставленной реальностью, то есть тем, что не зависит и противостоит будущему субъекту. Виртуальный Другой появляется иначе, как аддиктивное дополнение к субъекту, как быстродействующее средство против возникающих проблем.

Виртуальный компаньон (Алиса, чат-бот, нейросеть) не сильно лучше воображаемого друга, которого любят создавать дети. Пользователь оказывается погружен в виртуальную дружелюбную среду, в которой отсутствуют коммуникативные «издержки» и препятствия, трудности, возникающие при контакте с реальными биологическими Другими. Неизбежен соблазн избежать эти трудности ради контактов, постоянных и удобных, кратковременных и лишенных глубины. Контактов во многом воображаемых – ведь реакция собеседника не дана напрямую в сенсомоторной полноте! Весьма удобно выбирать только коммуникации, где нет надоедающих вопросов, например от наскучившего родственника или от въедливого преподавателя.

Конечно, это не столь уж ново. Атомизация цифровыми средствами началась намного раньше с приходом социальных сетей. Анализируя взаимодействия в них, Шэннон Валлор говорит о том, что конец «объединения через усилие» ведет лишь к обесцениванию социальной связи как таковой, например семейной или дружеской. В построении любых социальных единств всегда найдется момент обнаружения собеседника скучным, странным, в чем-то неприятным и так далее. Но без пересиливания этого момента, а значит и самопреодоления, не будет настоящей любви и дружбы [20. Р. 164–165]!

Отличие и радикальная новизна ИИ состоит в появлении агентности, отсутствующей у социальной сети. Она не действует, а лишь является пространством действия, условиями коммуникации. ИИ – это и воображаемый Другой, отвечающий нашим желаниям и запросам, и вместе с этим предоставляемая услуга; средство, а не «цель-в-себе». Такой Другой не «радикально инаков» (Левинас), и, воспринимаясь как функциональное средство, не вовлекает нас в этическое вопрошание, не заставляет пересматривать модель поведения. Учитель же буквально воплощает Другого, предъявляющего ученику требования ответственности, уважения, признания инаковости совокупно.

Современная нейросеть действительно способна рассмотреть этическую задачу и объяснить, к примеру, какое решение приняли бы деонтолог и утилитарист соответственно. Биоэтики могут убедиться в этом, запросив у лучших из имеющихся нейросетей рассмотрения какой-либо этической ситуации. Однако такое рассмотрение ничем не лучше карты местности, которая никак не принуждает идти тем или иным путем. Чат-бот или нейросеть – не могут направить по одному из них, поскольку не обладают авторитетом, достаточным для зарождения этической мотивации. Нам нужно нечто большее, чем восстановление коллективного опыта от ИИ в виде текста. Нам (если мы – студенты, будущие специалисты) нужна встреча с тем, кто делает посыл «следовать добродетелям» релевантным нашей же будущей жизни-в-профессии. Она не равна самому изощренному и полному собранию разбора биоэтических кейсов, инструкций и карт. Мы не можем следовать максиме Деррида о том, что «все это текст», когда дело идет о практике, касающейся жизни и смерти; практике настоящей, критичной для будущего.

В своих анализах клинических случаев Крылов приводит арсенал техник убеждения и разговора с пациентами, которым предстоят сложные операции [14. C. 161–167]. Приводятся различные эффективные (то есть способствующие сохранению здоровья пациента при учете имеющихся рисков) способы влияния на пациента вплоть до того, что «иногда пациента нужно напугать» [14. С. 164]. За такими приемами как «обращение к статистике», и «экспертное влияние» стоит своя клиническая жизнь и правда. В обоих случаях очевидна необходимость живого присутствия врача: иначе статистика будет лишь очередным сообщением машины (когда нужно эмпатическое воздействие на тревожного или просто растерянного пациента), а экспертное влияние – фарсом! А теперь представим себе, что ряд приведенных в этой книге рекомендаций является лишь реакцией ИИ на очередной промт, озвученной студентам, относительно того, как убедить пациента дать согласие на необходимую для его жизни операцию. Будет ли это иметь какое-либо влияние на неокрепшие умы, если этот текст есть лишь наиболее вероятный ответ на их вопрос о способе общения с трудным пациентом? Текст, даже убедительный и озвученный голограммой великого практика прошлого, – это не источник мотивации.

Какой может быть восприимчивость ученика к учителю, который есть лишь система смыслов и текстов, не подтвержденная личным бытием? Особенно, если речь касается пограничных вопросов биоэтики! У ИИ нет ответа на вопрос «Что лучше?», как и опыта, «вызывающего доверие». Даже воссоздание достоверно визуально и вербально достоверной модели Пирогова, не позволит передать его саморефлексию, признание вины за врачебные ошибки[7]. ИИ не мог переживать их хотя бы потому, что не был в ситуациях этого выбора. А если бы этот выбор был доступен ему (представим ИИ главой этического комитета), то он не стал бы человекоподобным, поскольку он аисторичен и не касается присущей нам уязвимости.

Почему уязвимость так важна? Бессмертному и неуязвимому существу нечего бояться. Ошибка ничем не грозит, поскольку его не способно поразить ни оружие, ни муки совести. Его ошибка принципиально есть только «дело техники». Нам не позаимствовать у него опыт самопреодоления, сложного морального выбора (пускай его существенность дорисована в виртуальном измерении). Это советчик, способный дать содержательно верный и очень эффективный совет, но безразличный к тому, поможет ли он. Поэтому-то рассуждения о приписывании ИИ морального статуса заходят в тупик: к аргументам про ответственность и саморефлексию нужно добавить эмпатию. Невозможно сопереживать без гуссерлианского «спаривания» (Paarung) – я не могу подставить себя на место неуязвимого существа.

Уязвимость это и следствие вовлеченности в мир, разомкнутости моего бытия, так и указание на возможность взаимодействия, построения социальной связи. Страдания и общая нужда объединяют не только коллективы, но и диады – например врача и пациента, учителя и ученика. Преподаватель должен дать почувствовать тот спектр потенциальных страданий, лишений, вреда и ущерба, которого стремится избежать ради «трезвости расчета» этическая рефлексия. Он сближает персонажей биоэтической задачи и студента через совместное проживание боли, хотя бы и виртуальной. Он был и остается уязвимым реально. Суммируя, уязвимость, гарантируемая открытым к диалогу (или полилогу) живым учителем есть теневая, дополнительная черта его авторитета в обучении этике.

ИИ в образовании: перспективы и ограничения

Рассуждая о возможности использования ИИ в образовании, мы должны понимать неизбежность опережения техническим прогрессом любой формы его осмысления. Биоэтика есть хороший пример философской дисциплины, всегда пытавшейся совладать с этим фактором. Сегодня активное внедрение ИИ в медицине формирует новый уровень этической сложности для известных проблем биоэтики. Речь идет и о способах контроля соблюдения конфиденциальности данных пациентов при использовании ИИ в сфере биомедицинских исследований, и об осмысленности обращения к алгоритмам диагностики при принятии решений в сфере здравоохранения, и о трансформации отношений между врачом и пациентом. Сложно представить то, каким образом будут отслеживаться соблюдение биоэтических принципов, если произойдет переход к так называемому «коллективному медицинскому разуму», когда инструменты ИИ станут некими центрами принятия медицинских решений [22. Р. 703–718]. Как можно подготовиться к подобному повороту и проблемам уже на стадии высшего образования? Возможно, полезным для обучения студентов в курсе биоэтики будет освоение навыка анализа этической составляющей в различного рода решениях, принятых с помощью ИИ, и именно в таком качестве возможно его применение на занятиях. Или же студенты будут учиться выявлять потенциальные этические риски посредством построения гипотетических ситуаций с использованием ИИ. Подобное применение инструментов ИИ на занятиях этикой сформирует критический подход к тому, насколько влиятельными могут быть ИИ при принятии ответственных решений.

Нельзя полностью отказывать ИИ в возможностях в образовании, так как некоторые исследования доказывают, что использование ИИ исключительно в качестве вспомогательного инструмента для студенческих работ действительно способно повысить их качество [23]. Такими вспомогательными решениями являются визуализация с помощью нейросетей, обработка больших объемов данных и т.п. В то же самое время не следует забывать о возможной имитации обучения, о недобросовестном использовании студентами нейросетей. Продолжая, можно выделить несколько критических аспектов применения ИИ в высшем образовании. Этический аспект связан, главным образом, с такими проблемами как нарушение авторских прав, ложное авторство, вымышленные библиографические списки и т.п. К социальному аспекту следует отнести снижение уровня объема социального взаимодействия между студентами и преподавателями и между студентами. Личностный аспект включает снижение количества креативных решений в условиях образовательных практик. Пострадать может не только креативность, но и способность к самостоятельному, независимому принятию решений в области этики, и, скорее всего, это будет влиять на общее состояние когнитивных способностей [24].

Интересным выводом из различных социологических исследований в российской высшей школе является отсутствие ясности безопасных условий применения ИИ. Признание в высшем образовании использование студентами ИИ для имитации обучения не приводит к действительным решениям для ограничения подобных возможностей [25]. Имеется достаточно большое количество научных и дидактических работ о методах использования ИИ в образовательной практике, часто указаны основные недостатки и этические риски [26], являющиеся чрезвычайно серьезными с точки зрения оценки образовательного и профессионального уровня будущих выпускников высших учебных заведений, но при этом практически отсутствует работа по сокращению данных рисков и негативных последствий.

Заключение

Современная система образования находится в странной ситуации создания условий выбора для студентов, необходимости принимать ответственные решения для своего обучения. Понимание уровня влияния ИИ-инструментов на личностное и профессиональное развитие возможно создаст условия для роста личной ответственности за результаты собственного обучения.

Пока же мы далеки от желаемой ясности, следует обратить внимание на сформированные в этой статье аргументы: не важно, заходим ли мы со стороны различия интеллектов или обсуждаем агентность – мы везде наталкиваемся на экзистенциальные аргументы о необходимости вовлеченности в мир, которые в свою очередь полагают непреодолимые онтологические различия. Отринув ответственность и саморефлексию, мы получаем неуязвимого виртуального Другого, вряд ли способного быть авторитетным проводником в биоэтическую ситуацию подобно тому, как это делал в общем этическом смысле Сократ для молодых афинян, а человек-преподаватель делает сегодня на своих занятиях для студентов.

 

1 В данной статье под понятием Искусственный Интеллект (ИИ) будет пониматься широкий набор систем, определяемых наличием в них автономных, способных к самообучению, алгоритмов, решающих интеллектуальные задачи. При этом нами обсуждается в виду только современный вариант ИИ, лишь имитирующий мышление человека [1. С. 152].

2 См. разработку этого принципиального сравнения у Соложенкина [8].

3 Следует различать между философским и стратегическим анализом типа того, что проводит Ганкель [16], и реальной ситуацией, когда чат-бот не может быть привлечен к юридической ответственности в отличие от человека.

4 Не важно, что это: намеренно фантазировать о чем-либо и затем интерпретировать рожденные образы, играть в шахматы и пытаться объяснить великую стратегическую игру Другому – любые наши способности (и навыки), покуда они не требуют телесного воплощения, превращаются в одноэтажное созидание контента (визуального, аудиального и т.д.) всякий раз заново. Связь между актами для ИИ – дело человеческого произвола.

5 A Psychiatrist Posed As a Teen With Therapy Chatbots. The Conversations Were Alarming. Available from: https://time.com/7291048/ai-chatbot-therapy-kids/ (accessed: 21.07.2025).

6 Персонализованные чат-боты уже создают иллюзию «глубинного», тесного общения со своим прототипом (герои фильмов, политики – пределов нет!). Слишком реальную иллюзию: см. недавний прогремевший случай самоубийства в материалах New York Times – Can A.I. Be Blamed for a Teen’s Suicide? Available from: https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html (accessed: 21.07.2025).

7 Этическая значимость умения признавать свои ошибки рассмотрена на примере Пирогова у Силуяновой [21].

×

About the authors

Boris S. Solozhenkin

Sechenov First Moscow State Medical University

Author for correspondence.
Email: gerzhogzdes@mail.ru
ORCID iD: 0000-0003-1125-1342
SPIN-code: 6164-2092

PhD in Philosophy, Associate Professor at the Institute of Social Sciences

8 bd 2 Trubetskaya St., Moscow, 119048, Russian Federation

Marina P. Asafaylo

Sechenov First Moscow State Medical University

Email: asafaylo_m_p@staff.sechenov.ru
ORCID iD: 0000-0003-3482-1424
SPIN-code: 9779-6377

PhD in Philosophy, Associate Professor at the Institute of Social Sciences

8 bd 2 Trubetskaya St., Moscow, 119048, Russian Federation

References

  1. Chibisov ON. Gnoseology of Machine Learning of Strong Artificial Intelligence. Nauka. Iskusstvo. Kul’tura. 2024;(2):143–157. (In Russian). EDN: YXKOHW
  2. Gottfredson LJ. Mainstream Science on Intelligence: An Editorial with 52 Signatories, History, and Bibliography. Intelligence. 1997;24(1):13–23. doi: 10.1016/s0160-2896(97)90011-8
  3. Gignac GE, Szodorai ET. Defining Intelligence: Bridging the Gap between Human and Artificial Perspectives. Intelligence. 2024;104:101832. doi: 10.1016/j.intell.2024.101832 EDN: ZGKQKF
  4. Luger GF. Artificial Intelligence: Principles and Practice. Springer International Publishing; 2024.
  5. Mokshanov MV. The use of artificial intelligence in data analysis: an overview of the current state and future directions. Universum: Tekhnicheskie Nauki. 2024;5(122). Available from: https://7universum.com/ru/tech/archive/item/17513 (accessed: 21.07.2025). (In Russian).
  6. Searle JR. Consciousness, Brain, and Programs. In: Analytical Philosophy: Formation and Development (The anthology). Moscow: Dom Intellektual’noi Knigi; 1998. (In Russian).
  7. Smirnov SA. Is human being computable, or anthropology of artificial intelligence. Methodological aspect. Vestnik Sankt-Peterburgskogo Universiteta. Filosofiya i Konfliktologiya. 2023;39(3):478–491. (In Russian). doi: 10.21638/spbu17.2023.306 EDN: SFQBCU
  8. Solozhenkin BS. The basic concepts of bioethics in their philosophical-anthropological perspective: on the dialectics of life and death. In: Grekhov AV, Fatenkov AN, editors. Social and humanitarian cognition: methodological and substantive parallels : A collective monograph. Moscow: Akvilon. 2019. (In Russian). EDN: ZHFJAL
  9. Charles T. Human Agency and Language. Philosophical Papers. Vol. 1. Cambridge: Cambridge University Press; 1985.
  10. Safonova YA, Subocheva ON, Korshkova AS. Agency of artificial autonomous systems as a factor in the transformation of society. Sotsiologiya. 2023;(6):116–122. (In Russian). EDN: BSOFML
  11. Floridi L. The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford: Oxford University Press; 2023.
  12. Ågerfalk PJ. Artificial Intelligence as Digital Agency. European Journal of Information Systems. 2020;29(1):1–8. doi: 10.1080/0960085X.2020.1721947
  13. Dreyfus HL. What Computers Still Can’t Do: A Critique of Artificial Reason. Biryukov BV, editor. Moscow: Librokom; 2010. (In Russian).
  14. Krylov NN. Ethics of Surgery. Dialogues with a Surgeon: Dialogues with a Surgeon on Professional Morality and Ethics. Moscow: Filin; 2021. (In Russian).
  15. Descombes V. Complement to the Subject: A Study of the Phenomenon of Action from One’s Own Person. Golovanivskaya M, transl. Moscow: Novoe literaturnoe obozrenie; 2011 (In Russian).
  16. Gunkel DJ. Mind the Gap: Responsible Robotics and the Problem of Responsibility. Ethics and Information Technology. 2020;22(4):307–320. doi: 10.1007/s10676-017-9428-2 EDN: ZCENSQ
  17. Coeckelbergh M. You, Robot: On the Linguistic Construction of Artificial Others. AI & Society. 2011;26(1):61–69. doi: 10.1007/s00146-010-0289-z EDN: CYPWXM
  18. Shen J, Dipaola D, Ali S, et al. Empathy toward Artificial Intelligence versus Human Experiences and the Role of Transparency in Mental Health and Social Support Chatbot Design: Comparative Study. JMIR Mental Health. 2024;11:e62679. doi: 10.2196/62679 EDN: NPZKBE
  19. Chiu TKF, Moorhouse BL, Chai CS, Ismailov M. Teacher Support and Student Motivation to Learn with Artificial Intelligence (AI) based Chatbot. Interactive Learning Environments. 2024;32(7):3240–3256. doi: 10.1080/10494820.2023.2172044
  20. Shannon V. Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford: Oxford University Press; 2016.
  21. Siluyanova IV, Nazarova EV. Contribution of N.I. Pirogov in the development of professional ethics of physicians Vestnik RGMU. 2010;(5):98–101. (In Russian). EDN: NDDQJF
  22. Blasimme A, Vayena E. The Ethics of AI in Biomedical Research, Patient Care, and Public Health. In: Dubber MD, Pasquale F, Das S, editors. The Oxford Handbook of Ethics of AI. Oxford: Oxford University Press; 2020.
  23. Andreeva YV, Antonova II, Shakurova AR, Garnaeva GI, Efimov MG. Analysis of Involvement in the Interaction Process with the Neural Network of Students and Teachers. Kompetentnost’ / Competency (Russia). 2024;(9–10):6–12. (In Russian). doi: 10.24412/1993-8780-2024-9-06-12 EDN: PILSCE
  24. Fasoli M, Cassinadri G, Ienca M. The Dark Side of Cognitive Enhancement: A Framework for the Technologically Induced Cognitive Diminishment. Journal of Cognitive Enhancement. 2025;(9):1–14. doi: 10.1007/s41465-025-00331-7
  25. Bermus AG, Sizova EV. Ethical aspects of implementing artificial intelligence technologies in a classical university: analysis of student audience attitude. Nepreryvnoe obrazovanie: XXI vek. 2025;13(2):1–16. (In Russian). doi: 10.15393/j5.art.2025.10585 EDN: BQHTHY
  26. Bryzgalina EV, Gumarova AN, Shkomova ЕМ. Key problems, risks and restrictions of using artificial intelligence in medicine and education. Vestnik Moskovskogo universiteta. Series 7: Philosophy. 2022;(6):93–108. (In Russian). EDN: GXUYWB

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2025 Solozhenkin B.S., Asafaylo M.P.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.