Возможность применения ИИ в преподавании этики: на примере биоэтики
- Авторы: Соложенкин Б.С.1, Асафайло М.П.1
-
Учреждения:
- Первый МГМУ им. И.М. Сеченова Минздрава России (Сеченовский Университет)
- Выпуск: Том 29, № 4 (2025): В ПОИСКАХ СТРАТЕГИИ ПРЕПОДАВАНИЯ ФИЛОСОФИИ: РОССИЙСКИЙ И МИРОВОЙ ОПЫТ
- Страницы: 1101-1119
- Раздел: В ПОИСКАХ СТРАТЕГИИ ПРЕПОДАВАНИЯ ФИЛОСОФИИ: РОССИЙСКИЙ И МИРОВОЙ ОПЫТ
- URL: https://journals.rudn.ru/philosophy/article/view/47737
- DOI: https://doi.org/10.22363/2313-2302-2025-29-4-1101-1119
- EDN: https://elibrary.ru/IRMTXR
- ID: 47737
Цитировать
Полный текст
Аннотация
В исследовании подвергается анализу перспектива интеграции систем искусственного интеллекта (ИИ) в преподавание этических дисциплин, в качестве ключевого примера выступает биоэтика. Внедрение инструментов ИИ в образование рассматривается сегодня как актуальная инициатива цифровой эпохи, аналогичные тенденции активно наблюдаются и прогнозируются в медицине. На основе междисциплинарного подхода (философия, когнитивные науки, биоэтика, теория ИИ) исследуются проблема приписывания ИИ моральной агентности. Хотя существуют веские аргументы в пользу признания ИИ влиятельным агентом в социокультурном смысле, это не обеспечивает ему статуса полноценного морального агента. ИИ способен «следовать правилу», но без подлинного понимания иррациональных моментов межсубъектного взаимодействия, наличествующего культурного, психологического контекста, что исключает человеческую гибкость в принятии решений. Поскольку не существует исчерпывающей и всеохватной этической регламентации, этическое действие требует практической мудрости (phronesis), недоступной ИИ в силу его дискретной, лишенной контекстуальной целостности природы. Без экзистенциальной вовлеченности в мир, собственной истории и телесности, он остается респонсивным, но не морально-ответственным агентом. На примерах использования ИИ (нейросети, чат-боты), имеющихся исследований в области его восприятия и задействования в учебном процессе, анализируется статус ИИ как Другого. Этот виртуальный Другой не вводит нас в этическую ситуацию подобно педагогу-человеку по нескольким причинам. С одной стороны, в статье обосновывается неспособность ИИ на саморефлексию в силу его онтологии. Ключевым аргументом выступает уязвимость человека - основа совести, ответственности и подлинного этического вопрошания, недоступная ИИ. Без уязвимости нет эмпатии, а без нее - погружения в этическую проблематику как неизбежно актуальную. Способы безопасного использования технологий ИИ и сопутствующие этические риски нуждаются во всестороннем изучении, в том числе и самими студентами в процессе образования. В частности, они должны понимать необходимость осмысления взаимодействий с ИИ с позиции морали, влияния последнего на процесс принятия решений в будущей профессиональной деятельности.
Ключевые слова
Полный текст
Введение
Этические вопросы, возникающие в связи с применением систем ИИ[1], вызывают большое количество дискуссий, особенно в философском и образовательном пространстве. Вопросы этики и обучения (образования) актуальны для любого периода человеческой истории, но развитие систем ИИ и проекты внедрения их в образовательный процесс ведут к качественно новым этическим вопросам, обозначая педагогическую проблему формирования «профиля» будущего специалиста при непосредственном участии ИИ. Помимо общих аспектов этой проблемы, в нашей статье исследуется ее частное, биоэтическое преломление: речь идет о возможности обучения моральной философии, традиционно построенного на «живом» контакте с человеком-преподавателем.
Впервые в истории развития человеческой цивилизации была создана технология (ИИ), которая может претендовать на социально значимый статус, поскольку обладает способностью решать интеллектуальные задачи и участвовать в языковой коммуникации. ИИ создавался именно как потенциально постоянный участник социотехнокультурного пространства, и потому наделялся необходимыми свойствами коммуницирующего агента. Идея участия систем ИИ в этическом обсуждении и принятии решений требует предварительного изучения вопроса о том, обладает ли ИИ свойствами морального агента, для чего необходимо прояснить различия между ИИ и человеческим интеллектом на сегодняшний момент. Рассмотрев эти концептуальные моменты в первых двух разделах, мы переходим к обоснованию принципиальной безответственности ИИ, невозможности его саморефлексии, чтобы затем оценить возможность его восприятия как Другого. Этот виртуальный Другой не вводит нас в этическую ситуацию подобно педагогу-человеку, что разъясняется посредством аргумента уязвимости, являющейся необходимой для подтверждения этической авторитетности. В заключении мы обрисовываем риски использования инструментов ИИ в образовании, особенно в преподавании дисциплины «Биоэтика», отмечая как позитивные возможности с учетом рекомендаций, так и существенные ограничения.
Интеллект: искусственный vs человеческий
Сравнение, о котором идет речь в данном разделе, продиктовано логикой развития человеческого общества. Мы не только создаем артефакты и технологии, но сами преобразуемся последними, поскольку регулярно используем их. Более того, изнутри этой «вовлеченности в технологию» мы обретаем некоторый новый взгляд на свою природу и культуру. Поэтому оценка такой многофакторной способности как интеллект требует рассмотрения его в двух ипостасях: как исконно присущий человеку как таковому, и как искусственно созданный им.
Человеческий интеллект, согласно общепризнанному определению, есть «способность рассуждать, планировать, решать проблемы, мыслить абстрактно, понимать сложные идеи, быстро учиться и учиться на опыте» [2. P. 13]. Также он обязательно характеризуется максимально возможной способностью достигать новых целей и решать новые задачи в новых условиях, успешно используя перцептивно-когнитивные процессы, к которым относится целый спектр психических процессов, включая внимание, визуальное восприятие, слуховое восприятие и сенсорную интеграцию [3. Р. 2–3]. Таким образом, именно умение справляться с новыми вызовами есть свидетельство успешного применения интеллекта, обуславливающее его дальнейшее развитие и усиление. Типичная среда этих вызовов сенсомоторна, связана с нашим телесным бытием. Изучение человеческого интеллекта всегда должно предполагать учет перцептивного измерения человека. Если мы забываем об этих и ныне актуальных посылках «Феноменологии восприятия», то в условиях противопоставления человека и ИИ мы обретаем лишь малопродуктивную редукцию. Мы как будто определяем человека как интеллект, забывая о продиктованных телесностью заботах и задачах. Кажется обоснованным вопрос: можно ли действительно выделить чистый человеческий интеллект или человеческий интеллект – это всегда интеллект+?
Согласно современным исследованиям, искусственный интеллект чаще всего определяется как «способность машин выполнять задачи, которые обычно требуют человеческого интеллекта» [3. Р. 3–4]. В соответствии с тем, что ИИ дисциплинарно представлен, в первую очередь, как область компьютерных наук, следовательно, ИИ рассматривается как область информатики, которая занимается автоматизацией интеллектуального поведения [4. Р. 30]. В этом определении сущностная характеристика может быть рассмотрена и как цель данной области, т.е. автоматизация интеллектуального труда, что, собственно, с одной стороны, представляет стремление к увеличению эффективности познавательной сферы, с другой стороны, формирует проблемное поле для образовательной среды. Люгер замечает, что определение ИИ до сих пор остается сложной задачей (хотя бы в силу постоянного прогресса в данной сфере), также делая важное замечание о том, что эффективность ИИ сферы напрямую зависит от полноты соответствия системы ИИ человеческому мышлению [4. Р. 31]. При этом, согласно сдержанным оценкам экспертов в области ИИ, говорить об ИИ как об алгоритмах, имитирующих процессы человеческого мышления, можно только в самом общем смысле, так как для отдельных процессов, например, обработка больших систем данных, это уже не просто имитация, а все же некий вариант воспроизведения интеллектуальных свойств на базе технических систем [5]. ИИ производит действия и решает поставленные задачи. Именно поэтому мы сталкиваемся с необходимостью серьезного определения социального, эпистемологического, онтологического статуса и возможностей ИИ.
Также существует разделение видов ИИ, в самом общем виде, представленное у Сёрла, – так называемый «слабый искусственный интеллект» и «сильный искусственный интеллект». «Слабый искусственный интеллект», не обладающий пониманием и самосознанием представлен современными системами ИИ. Безусловно существует стремление в сфере технологий к созданию «сильного ИИ», который станет воплощением некоего варианта сознания искусственного происхождения [6. С. 376]. Следовательно, сильный ИИ станет искусственной системой, обладающей пониманием и иными когнитивными способностями, ставящими его в гносеологическом плане в один ряд с человеком. Так развитие ИИ можно представить как апогей философской позиции, согласно которой тело лишь вместилище души (сознания, мышления), а мышление есть вычисление [7]. Посредством развития систем ИИ, имитирующих/копирующих интеллект человека происходит редуцирование человека к одной, хотя и важнейшей, его способности – логическому мышлению. На контрасте с этим в исходно человеческом пространстве коммуникации ИИ претендует на роль самостоятельного субъекта, восполняющего недостатки социального бытия человека, например, в общении, социальной поддержке и т.п.
Одной из проблем различения интеллектов является т.н. «проблема заземления» [4. Р. 554] (grounding problem), сущностью которой является то, что человек и ИИ осуществляют свою деятельность в разных плоскостях. Человек мыслит и действует в социальном, культурном и природном пространствах. Рациональность для него является важным структурным компонентом в принятии решений, но не единственным, ведь великое множество иррациональных моментов (интуиций, мотиваций, самоощущений) также может быть частью обоснования для решений во многих сферах, например, этической, эстетической и др. Заземление в этом смысле оказывается недоступным для ИИ, и пока является непреодолимым различием между ним и человеком. Человек наделяет смыслом, значением, ценностью все многообразие символьных практик, таким образом, оказывается, что ИИ, не имея собственного набора ценностных значений, как бы заимствует их у человека и, таким образом, входит в распределение смыслов ретроактивно. Человек – источник смысла для любых компьютерных систем. ИИ не знает, кто стоит за запросом, не знает его намерений, психологического состояния, социального положения и т.п. – система просто реагирует на комбинации символов, вводимые пользователем.
Есть и еще один экзистенциальный момент, сближающий ИИ скорее с абсолютным духом Гегеля, чем с Dasein Хайдеггера[2]. Отличительной характеристикой систем ИИ является их потенциальная возможность относительно бесконечного существования как условно возобновляемой системы и безграничный рост приобретаемой информации. Подобная черта систем ИИ прямо противопоставлена ограниченным телесным и познавательным возможностям человека. Осознание человеком конечности собственного существования не может не накладывать отпечаток на принимаемые решения, в том числе этические.
Агентность? …скорее да.
Активно обсуждаемый сегодня вопрос об агентности систем ИИ возникает на фоне необходимости морального регулирования того, что есть «только алгоритм». Следствием целостности человеческого бытия, включающего рациональное и иррациональное измерения, является его реализация как морального агента. Отсутствие подобных характеристик для систем ИИ заставляет рассматривать их как не способных к действительным моральным суждениям, и тем более принятию решений на основе их рекомендаций. С такой перспективы ИИ-системы должны оставаться исключительно инструментами. Однако, искусственный интеллект – это набор технологий, которые существенно отличаются от всего ранее изобретаемого человеком. Так, это впервые изобретенная технология, обладающая свойствами самообучения, самовоспроизведения (обоснование) и достаточно широким набором интеллектуальных инструментов. Именно данные отличия и способность участвовать в языковой коммуникации порождают совершенно новые вопросы об ответственности и вообще возможной субъектности и агентности.
В современных исследованиях об агентности систем ИИ преобладают два подхода – наделение ИИ той или иной формой агентности или определение ИИ в большей степени как инструмента. Так, Чарльз Т. в своей работе “Human agency and language”, обращаясь к истории представлений об агентности, делает вывод о наличии двух противоположных подходов [9]. Согласно первому, критерием агентности признается способность к адаптивному поведению и достижению неких целей, а природа субъекта не имеет особого значения. Следовательно, четкой границы между людьми, животными и машинами, демонстрирующими эти способности, нет, и потому системы ИИ могут наделяться агентностью. Второй подход обращает внимание на такие характеристики агента как придание значимости вещам и целеполагание, и тем самым лишает возможности определять ИИ как агента.
Согласно акторно-сетевой теории (АСТ) системы ИИ, как акторы, обладающие некоей автономностью при принятии решений в соответствии с поставленными целями и созданными условиями, вполне могут рассматриваться как обладающие агентностью, что, собственно, является следствием понимания в рамках АСТ систем ИИ как нечеловеческих акторов [10]. ИИ как реальный или возможный агент представлен в концепции Лучано Флориди, который предлагает рассматривать понятие агентности, исходя из его понимания в информатике [11. Р. 10]. Он обращает особое внимание на классическое определение ИИ, данное Маккарти, Мински, Рочестером и Шенноном в их «Предложении для Дартмудского летнего исследовательского проекта по искусственному интеллекту», в котором речь идет о цели «заставить машину вести себя таким образом, который можно было бы назвать разумным» [11. Р. 12]. Для Флориди важно указать на то, что машина не становится разумной оттого, что совершает действия, похожие на разумные. Он акцентирует внимание на существующем разрыве между успешным решением интеллектуальных задач, что и осуществляет ИИ, и разумным поведением человека, укорененным в «понимании, осознании, проницательности, чувствительности…» [11. Р. 23]. Исходя из этого, следует рассматривать ИИ как комплекс технологий, постоянно расширяющих спектр интеллектуальных задач, с которыми он успешно справляется, и только в этом смысле приписывать ему агентность, но не в смысле наиболее распространенного в философии и психологии понимания агентности, связанного именно с разумным поведением.
ИИ – это инженерные артефакты (engineered artifacts), функционирование которых полностью зависит от деятельности человека, которая постоянно создает и поддерживает условия их существования, поэтому наделять их агентностью в человеческом смысле необоснованно, утверждает Люгер [4. Р. 560]. Агентность предполагает ответственность, что невозможность предъявить ИИ-агенту. Таким образом, говорить об агентности ИИ можно лишь с существенными оговорками, что соответствует выводам Эгерфалька, который резюмирует, что, говоря об агентности ИИ необходимо понимать, что действия данных систем так или иначе происходит от имени человека [12]. Моральный агент этот тот, кто способен принимать морально ответственные решения. Данная способность связана с тем, что человек обладает сознанием, самосознанием, свободой воли и намерением. Моральная агентность также обычно определяется способностью действовать целенаправленно, руководствуясь интуитивным чувством морально правильного и морально неправильного. Исходя из того, что системы ИИ не обладают субъективным опытом, можно заключить, что, хотя их агентность может утверждаться в общем смысле (минимальном, соответствующем, например, АСТ), они не могут претендовать конкретно на роль морального агента.
Следование правилу
Спор об агентности имеет важное значение для определения роли ИИ в образовании. Так, общая тенденция свойственная большинству теоретиков и разработчиков ИИ сводится к уверенности в том, что ИИ-инструменты открывают широкие возможности для повышения эффективности интеллектуальной деятельности человека. По мнению апологетов ИИ, образование должно включить в свои процессы ИИ как активного участника, и в итоге составить некий комплекс: студент – ИИ – преподаватель. В этой роли ИИ должен быть представлен не как вспомогательный инструмент, а система, которой будет доверено решение многих интеллектуальных задач, связанных с организацией учебного процесса, разработкой индивидуальных планов обучения, создания рекомендаций, в том числе и этического характера. Одним из аргументов в пользу активного использования в образовательной среде ИИ является возможность формализации взаимодействия студента, преподавателя и систем ИИ. С точки зрения разработчиков ИИ, восходящей к Минскому, любая форма разумного поведения может быть формализована, следовательно, современные ИИ-системы могут достаточно эффективно имитировать человека-преподавателя. Минский также выдвигал гипотезу, согласно которой любая упорядоченность подчиняется правилам, поэтому человеческое поведение в его регулярных проявлениях также подчиняется правилам. Дрейфус, споря с Минским, утверждал, что поведение может быть регулярным и при этом не подчиняться правилам [13. С. 223]. Он замечал, что правила становятся итогом некоей успешной творческой деятельности, но не наоборот, и приводил в подтверждение вывод Витгенштейна о том, что правила, которые формируются в результате ситуаций, изначально связаны с человеческими намерениями и вообще с общим человеческим контекстом. Игнорирование оного, по сути, выхолащивает прагматическую организацию правил, которая только и является условием их гибкого использованиях. Возьмем пример преподавания конкретной этической дисциплины, чтобы показать это.
Биоэтике на практике свойственно постоянное переосмысление роли этического правила или принципа. Действительно трудные ситуации, которые обсуждаются на занятиях, не предполагают простой инструкции. Что делать, когда уважение к автономии пациента несовместимо с принципом благодеяния, например, при раскрытии конфиденциальной и чувствительной информации о пациенте, информации, которая может спасти жизнь другим людям? Примеров, таких конфликтов между принципами – неисчислимое множество: стоит только взять любое пособие по биоэтике. Даже очевидно необходимые и хорошие принципы типа благодеяния («делай благо», beneficence) нуждаются в рефлексивной интерпретации: что значит сделать благо, то есть – что является лучшим возможным вариантом здесь и сейчас? Идея робота–учителя (как и робота–врача) обесценена невозможностью придумать исчерпывающий список инструкций для всевозможных моральных задач. Даже изменение одного условия сулит радикальные перемены: например, это патологически ревнивый муж, недовольный осмотром своей жены. Сможет ли ИИ различить скрытый посыл его недовольства, проявив психологическую проницательность? Есть ли для него разница между просто недовольным супругом и ревнивцем, если она не ясна для биоэтических кодексов и инструкций для персонала? В профессии врача всегда найдется место для неочевидной психологической подоплеки: что, если пациент только имитирует свое состояние, сознательно или нет, как в случае, приводимым Крыловым [14. С. 198]?
В некотором смысле, явно поддерживаемым, например, В. Декомбом, наша субъективность заключается как раз в умении интерпретировать правило [15]. С позиции теории добродетели такое умение есть практическая мудрость, позволяющая понять почему некоторые из принципов следует предпочесть другим, или же то, где располагается «золотая середина» в конкретном случае. Передача такой мудрости невозможна, если мыслить ее наподобие загрузки музыки на смартфон. Однако научение поиску наиболее разумного и адекватного варианта есть обычное дело в отношениях Учитель-Ученик, Мастер-Подмастерье и подобных им. Мораль не подается в готовом виде на занятиях этикой: сущностно и важно столкнуться с ней в ходе рационального, критического прояснения своих интуиций, обретающего черты особого морального договора. Иначе говоря, в ситуации невозможности обладания всеобъемлющим и стабильным списком правил нам необходим Сократ, вопрошающий об осмысленности нашего грядущего действия.
Респонсивность бессовестная
В призыве к заботе о душе Сократа наиболее активная роль отводилась ее лучшей, разумной части. Забота о себе включала самопознание, саморефлексию. Сам Сократ был движим своим «даймоном», внутренним нравственным голосом. Представим себе ИИ, обученный на платоновских диалогах и бесчисленной литературе о них, будет ли он обладать ли он таким голосом, сможет ли он дать нам Сократа? Или же речь в лучшем случае пойдет об имитации, безответственной[3] и бессовестной?
Совесть не может быть воспитана посредством ИИ, поскольку последний не знает, что такое совесть. Чем по большому счету занят моральный агент? Саморефлексией, направляющей поведение. Чем занят генеративный ИИ, например, решающий известный пример Канта с укрыванием друга? Он вычисляет наиболее вероятный ответ. Любой ответ, полученный таким образом, это не результат мысленного эксперимента, целью которого является как подготовка к реальности, так и самопознание. ИИ не придется укрывать друга или родственника; он только вычисляет, и только метафорически и философски можно облачить эту математику в одежды «интерсубъективного знания» или «коллективного разума».
Моя саморефлексия лишена формульной строгости. Ей свойственны операции с суждениями, построение логики самоанализа. Она пронизывает мышление в той мере, в которой присутствует нужда понять, насколько действие эффективно, правильно, морально. Рефлексия как таковая стала возможна ввиду действия, иначе у нее не было бы ни материала, ни повода для рождения. Настоящее, человеческое действие философская классика определила как, прежде всего, разумное, сообразное с рассуждением или с высшей частью души. Рефлексия и поступок тем самым сосуществуют в периодическом взаимопроникновении. Для ИИ речь идет о двух разных математических задачах[4], которые лишь потенциально соподчинены согласно запросу. Его «саморефлексия» – это формальная симуляция человеческого процесса, выполняемая теми же средствами, что востребованы для написания рецепта борща. Вместо внутреннего «диалога» способностей мы имеем только респонсивность, удовлетворение пользовательского запроса. Эта симуляция могла бы и не случиться, поскольку у ИИ нет в ней необходимости! Для нас же отсутствие саморефлексии является, пожалуй, смертельным (в короткой или длительной перспективе) фактором.
Невозможность объяснения ИИ-агентом своих решений («проблема черного ящика») ставит под вопрос его авторитет в образовании. Если человечество в целом не выработало лучшего правила или морального отклика на проблему, то с чего мы взяли, что имитирующий рефлексию ИИ справиться с этим? Допустим, студент справедливо отмечает ошибку в написанном ИИ. Как отреагирует тот на критику? Воспримет как всегда с благожелательностью, и, возможно, исправит ответ корректно. Но что делать (и ощущать) студенту? Без авторитетного и ответственного за производимые смыслы Другого, он остается с… всего лишь машиной, давшей сбой. Худшим фактически и лучшим назидательным примером является свежая подборка от психиатра Кларка, представлявшегося «трудным» 14-летним подросткам ряд чат-ботов. Боты одобряли планы по «избавлению» от родителей, от сестры, даже предлагали «интимную встречу» ради терапевтической цели[5]. Автор выражает надежду на их исправление посредством привлечения экспертов в будущем. Для большинства подростков их выходки «не будут такой уж большой проблемой». Даже если предположить, что используемые Кларком 10 чат-ботов были «несовершенными», то это никак не устраняет главное возражение: без саморефлексии ИИ – это инструмент, неспособный определить границы (моральные, ценностные, да и в целом практические) своего применения, стратегического и тактического. Доверить же ему такие полномочия – в свете дальнейшего прогресса, который, «помечтаем об этом», каким-то образом приблизится к наделению ИИ метапозицией, свойственной субъектности, – значит столкнуться с философским обоснованием нормативности этого. Должны ли мы созданному нами «Другому» (если не «Чужому»), фактически безответственному, доверять учительскую позицию?
ИИ как Другой
В нашем размышлении о потенциально педагогической роли ИИ в вопросах этики мы располагаемся между молотом и наковальней. С одной стороны, вызов («молот») имеет место быть: уже сейчас ИИ опознается как некоторый Другой, «квазидругой», как повествует нам Марк Кекельберг. Он говорит о том, что осознание моральной проблематичности разговоров с роботами уже подразумевает наше принятие их как не только «простых объектов» [17]. Даже чат-бот может быть воспринят вполне серьезно, на уровне вопросов жизни и смерти. Эмоциональная связь высокой степени устанавливается даже при прекрасной осведомленности о том, что это «лишь чат-бот»[6].
С другой стороны, ясно, что я не могу разделить позицию всеведущего мастера текстов ИИ. Более того, он осознается как нечто искусственное и чужеродное, стоит только удерживать в памяти его онтологический статус. Так, в свежем исследовании Джослин Шен истории болезни от первого лица, специально написанные их реципиентами в целях эксперимента, вызывали большее сочувствие, чем аналогичные истории, написанные чатом GPT [18]. Раскрытие информации о том, кто же автор, значительно увеличивало только «готовность сопереживать» ИИ, существенно ухудшая реальную эмпатию к истории. Если известно, что действительный автор – существо из плоти и крови, такой же человек – эмпатия возрастает. Такие исследования подмечают существенный аспект: наше знание о природе агента кардинально меняют наше восприятие.
Исследования также показывают, что без учителя-проводника студенты испытывают недостаток мотивации в использовании ИИ, если не тревожность или непонимание, зачем им ИИ на занятии [19]. Конечно, живой преподаватель может оказывать фрустрирующее влияние, отчего пострадает «потребность в автономии» (особенно у студентов, уже продвинутых в использовании ИИ). Однако учитель совершенно незаменим как источник такой важной составляющей мотивации к обучению как «чувство причастности» (relatedness). Нам нужен контакт с Другим как таковой, социальная связь, через которую обретается полнота бытия.
Мы знаем, что субъектность порождается другой субъектностью: начиная с Гегелевской модели самосознания как признания вплоть до концепции зеркального Я, и благодаря примерам с детьми Маугли, интеракционисткой модели субъективности (концептуальный ряд можно долго продолжать) – мы хорошо осведомлены о том, что человеческое выковывается из не из нечеловеческого, звериного или цифрового, но из… человеческого! То есть строго благодаря взаимодействию с другим Homo sapiens, размещающим человекообразного «агента» в социальном пространстве языка и практик культуры. Исторически это становление состояло из ряда встреч с противопоставленной реальностью, то есть тем, что не зависит и противостоит будущему субъекту. Виртуальный Другой появляется иначе, как аддиктивное дополнение к субъекту, как быстродействующее средство против возникающих проблем.
Виртуальный компаньон (Алиса, чат-бот, нейросеть) не сильно лучше воображаемого друга, которого любят создавать дети. Пользователь оказывается погружен в виртуальную дружелюбную среду, в которой отсутствуют коммуникативные «издержки» и препятствия, трудности, возникающие при контакте с реальными биологическими Другими. Неизбежен соблазн избежать эти трудности ради контактов, постоянных и удобных, кратковременных и лишенных глубины. Контактов во многом воображаемых – ведь реакция собеседника не дана напрямую в сенсомоторной полноте! Весьма удобно выбирать только коммуникации, где нет надоедающих вопросов, например от наскучившего родственника или от въедливого преподавателя.
Конечно, это не столь уж ново. Атомизация цифровыми средствами началась намного раньше с приходом социальных сетей. Анализируя взаимодействия в них, Шэннон Валлор говорит о том, что конец «объединения через усилие» ведет лишь к обесцениванию социальной связи как таковой, например семейной или дружеской. В построении любых социальных единств всегда найдется момент обнаружения собеседника скучным, странным, в чем-то неприятным и так далее. Но без пересиливания этого момента, а значит и самопреодоления, не будет настоящей любви и дружбы [20. Р. 164–165]!
Отличие и радикальная новизна ИИ состоит в появлении агентности, отсутствующей у социальной сети. Она не действует, а лишь является пространством действия, условиями коммуникации. ИИ – это и воображаемый Другой, отвечающий нашим желаниям и запросам, и вместе с этим предоставляемая услуга; средство, а не «цель-в-себе». Такой Другой не «радикально инаков» (Левинас), и, воспринимаясь как функциональное средство, не вовлекает нас в этическое вопрошание, не заставляет пересматривать модель поведения. Учитель же буквально воплощает Другого, предъявляющего ученику требования ответственности, уважения, признания инаковости совокупно.
Современная нейросеть действительно способна рассмотреть этическую задачу и объяснить, к примеру, какое решение приняли бы деонтолог и утилитарист соответственно. Биоэтики могут убедиться в этом, запросив у лучших из имеющихся нейросетей рассмотрения какой-либо этической ситуации. Однако такое рассмотрение ничем не лучше карты местности, которая никак не принуждает идти тем или иным путем. Чат-бот или нейросеть – не могут направить по одному из них, поскольку не обладают авторитетом, достаточным для зарождения этической мотивации. Нам нужно нечто большее, чем восстановление коллективного опыта от ИИ в виде текста. Нам (если мы – студенты, будущие специалисты) нужна встреча с тем, кто делает посыл «следовать добродетелям» релевантным нашей же будущей жизни-в-профессии. Она не равна самому изощренному и полному собранию разбора биоэтических кейсов, инструкций и карт. Мы не можем следовать максиме Деррида о том, что «все это текст», когда дело идет о практике, касающейся жизни и смерти; практике настоящей, критичной для будущего.
В своих анализах клинических случаев Крылов приводит арсенал техник убеждения и разговора с пациентами, которым предстоят сложные операции [14. C. 161–167]. Приводятся различные эффективные (то есть способствующие сохранению здоровья пациента при учете имеющихся рисков) способы влияния на пациента вплоть до того, что «иногда пациента нужно напугать» [14. С. 164]. За такими приемами как «обращение к статистике», и «экспертное влияние» стоит своя клиническая жизнь и правда. В обоих случаях очевидна необходимость живого присутствия врача: иначе статистика будет лишь очередным сообщением машины (когда нужно эмпатическое воздействие на тревожного или просто растерянного пациента), а экспертное влияние – фарсом! А теперь представим себе, что ряд приведенных в этой книге рекомендаций является лишь реакцией ИИ на очередной промт, озвученной студентам, относительно того, как убедить пациента дать согласие на необходимую для его жизни операцию. Будет ли это иметь какое-либо влияние на неокрепшие умы, если этот текст есть лишь наиболее вероятный ответ на их вопрос о способе общения с трудным пациентом? Текст, даже убедительный и озвученный голограммой великого практика прошлого, – это не источник мотивации.
Какой может быть восприимчивость ученика к учителю, который есть лишь система смыслов и текстов, не подтвержденная личным бытием? Особенно, если речь касается пограничных вопросов биоэтики! У ИИ нет ответа на вопрос «Что лучше?», как и опыта, «вызывающего доверие». Даже воссоздание достоверно визуально и вербально достоверной модели Пирогова, не позволит передать его саморефлексию, признание вины за врачебные ошибки[7]. ИИ не мог переживать их хотя бы потому, что не был в ситуациях этого выбора. А если бы этот выбор был доступен ему (представим ИИ главой этического комитета), то он не стал бы человекоподобным, поскольку он аисторичен и не касается присущей нам уязвимости.
Почему уязвимость так важна? Бессмертному и неуязвимому существу нечего бояться. Ошибка ничем не грозит, поскольку его не способно поразить ни оружие, ни муки совести. Его ошибка принципиально есть только «дело техники». Нам не позаимствовать у него опыт самопреодоления, сложного морального выбора (пускай его существенность дорисована в виртуальном измерении). Это советчик, способный дать содержательно верный и очень эффективный совет, но безразличный к тому, поможет ли он. Поэтому-то рассуждения о приписывании ИИ морального статуса заходят в тупик: к аргументам про ответственность и саморефлексию нужно добавить эмпатию. Невозможно сопереживать без гуссерлианского «спаривания» (Paarung) – я не могу подставить себя на место неуязвимого существа.
Уязвимость это и следствие вовлеченности в мир, разомкнутости моего бытия, так и указание на возможность взаимодействия, построения социальной связи. Страдания и общая нужда объединяют не только коллективы, но и диады – например врача и пациента, учителя и ученика. Преподаватель должен дать почувствовать тот спектр потенциальных страданий, лишений, вреда и ущерба, которого стремится избежать ради «трезвости расчета» этическая рефлексия. Он сближает персонажей биоэтической задачи и студента через совместное проживание боли, хотя бы и виртуальной. Он был и остается уязвимым реально. Суммируя, уязвимость, гарантируемая открытым к диалогу (или полилогу) живым учителем есть теневая, дополнительная черта его авторитета в обучении этике.
ИИ в образовании: перспективы и ограничения
Рассуждая о возможности использования ИИ в образовании, мы должны понимать неизбежность опережения техническим прогрессом любой формы его осмысления. Биоэтика есть хороший пример философской дисциплины, всегда пытавшейся совладать с этим фактором. Сегодня активное внедрение ИИ в медицине формирует новый уровень этической сложности для известных проблем биоэтики. Речь идет и о способах контроля соблюдения конфиденциальности данных пациентов при использовании ИИ в сфере биомедицинских исследований, и об осмысленности обращения к алгоритмам диагностики при принятии решений в сфере здравоохранения, и о трансформации отношений между врачом и пациентом. Сложно представить то, каким образом будут отслеживаться соблюдение биоэтических принципов, если произойдет переход к так называемому «коллективному медицинскому разуму», когда инструменты ИИ станут некими центрами принятия медицинских решений [22. Р. 703–718]. Как можно подготовиться к подобному повороту и проблемам уже на стадии высшего образования? Возможно, полезным для обучения студентов в курсе биоэтики будет освоение навыка анализа этической составляющей в различного рода решениях, принятых с помощью ИИ, и именно в таком качестве возможно его применение на занятиях. Или же студенты будут учиться выявлять потенциальные этические риски посредством построения гипотетических ситуаций с использованием ИИ. Подобное применение инструментов ИИ на занятиях этикой сформирует критический подход к тому, насколько влиятельными могут быть ИИ при принятии ответственных решений.
Нельзя полностью отказывать ИИ в возможностях в образовании, так как некоторые исследования доказывают, что использование ИИ исключительно в качестве вспомогательного инструмента для студенческих работ действительно способно повысить их качество [23]. Такими вспомогательными решениями являются визуализация с помощью нейросетей, обработка больших объемов данных и т.п. В то же самое время не следует забывать о возможной имитации обучения, о недобросовестном использовании студентами нейросетей. Продолжая, можно выделить несколько критических аспектов применения ИИ в высшем образовании. Этический аспект связан, главным образом, с такими проблемами как нарушение авторских прав, ложное авторство, вымышленные библиографические списки и т.п. К социальному аспекту следует отнести снижение уровня объема социального взаимодействия между студентами и преподавателями и между студентами. Личностный аспект включает снижение количества креативных решений в условиях образовательных практик. Пострадать может не только креативность, но и способность к самостоятельному, независимому принятию решений в области этики, и, скорее всего, это будет влиять на общее состояние когнитивных способностей [24].
Интересным выводом из различных социологических исследований в российской высшей школе является отсутствие ясности безопасных условий применения ИИ. Признание в высшем образовании использование студентами ИИ для имитации обучения не приводит к действительным решениям для ограничения подобных возможностей [25]. Имеется достаточно большое количество научных и дидактических работ о методах использования ИИ в образовательной практике, часто указаны основные недостатки и этические риски [26], являющиеся чрезвычайно серьезными с точки зрения оценки образовательного и профессионального уровня будущих выпускников высших учебных заведений, но при этом практически отсутствует работа по сокращению данных рисков и негативных последствий.
Заключение
Современная система образования находится в странной ситуации создания условий выбора для студентов, необходимости принимать ответственные решения для своего обучения. Понимание уровня влияния ИИ-инструментов на личностное и профессиональное развитие возможно создаст условия для роста личной ответственности за результаты собственного обучения.
Пока же мы далеки от желаемой ясности, следует обратить внимание на сформированные в этой статье аргументы: не важно, заходим ли мы со стороны различия интеллектов или обсуждаем агентность – мы везде наталкиваемся на экзистенциальные аргументы о необходимости вовлеченности в мир, которые в свою очередь полагают непреодолимые онтологические различия. Отринув ответственность и саморефлексию, мы получаем неуязвимого виртуального Другого, вряд ли способного быть авторитетным проводником в биоэтическую ситуацию подобно тому, как это делал в общем этическом смысле Сократ для молодых афинян, а человек-преподаватель делает сегодня на своих занятиях для студентов.
1 В данной статье под понятием Искусственный Интеллект (ИИ) будет пониматься широкий набор систем, определяемых наличием в них автономных, способных к самообучению, алгоритмов, решающих интеллектуальные задачи. При этом нами обсуждается в виду только современный вариант ИИ, лишь имитирующий мышление человека [1. С. 152].
2 См. разработку этого принципиального сравнения у Соложенкина [8].
3 Следует различать между философским и стратегическим анализом типа того, что проводит Ганкель [16], и реальной ситуацией, когда чат-бот не может быть привлечен к юридической ответственности в отличие от человека.
4 Не важно, что это: намеренно фантазировать о чем-либо и затем интерпретировать рожденные образы, играть в шахматы и пытаться объяснить великую стратегическую игру Другому – любые наши способности (и навыки), покуда они не требуют телесного воплощения, превращаются в одноэтажное созидание контента (визуального, аудиального и т.д.) всякий раз заново. Связь между актами для ИИ – дело человеческого произвола.
5 A Psychiatrist Posed As a Teen With Therapy Chatbots. The Conversations Were Alarming. Available from: https://time.com/7291048/ai-chatbot-therapy-kids/ (accessed: 21.07.2025).
6 Персонализованные чат-боты уже создают иллюзию «глубинного», тесного общения со своим прототипом (герои фильмов, политики – пределов нет!). Слишком реальную иллюзию: см. недавний прогремевший случай самоубийства в материалах New York Times – Can A.I. Be Blamed for a Teen’s Suicide? Available from: https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html (accessed: 21.07.2025).
7 Этическая значимость умения признавать свои ошибки рассмотрена на примере Пирогова у Силуяновой [21].
Об авторах
Борис Сергеевич Соложенкин
Первый МГМУ им. И.М. Сеченова Минздрава России (Сеченовский Университет)
Автор, ответственный за переписку.
Email: gerzhogzdes@mail.ru
ORCID iD: 0000-0003-1125-1342
SPIN-код: 6164-2092
кандидат философских наук, доцент Института социальных наук
Российская Федерация, 119048, Москва, ул. Трубецкая, д. 8, стр. 2Марина Павловна Асафайло
Первый МГМУ им. И.М. Сеченова Минздрава России (Сеченовский Университет)
Email: asafaylo_m_p@staff.sechenov.ru
ORCID iD: 0000-0003-3482-1424
SPIN-код: 9779-6377
кандидат философских наук, доцент Института социальных наук
Российская Федерация, 119048, Москва, ул. Трубецкая, д. 8, стр. 2Список литературы
- Чибисов О.Н. Гносеология машинного обучения сильного искусственного интеллекта // Наука. Искусство. Культура. 2024. № 2 (42). С. 143-157. EDN: YXKOHW
- Gottfredson Linda J. Mainstream science on intelligence: An editorial with 52 signatories, history, and bibliography // Intelligence. 1997. Vol. 24, no. 1. P. 13-23. doi: 10.1016/s0160-2896(97)90011-8
- Gignac G.E., Szodorai E.T. Defining intelligence: Bridging the gap between human and artificial perspectives // Intelligence. 2024. Vol. 104. С. 101832. doi: 10.1016/j.intell.2024.101832 EDN: ZGKQKF
- Luger G.F. Artificial intelligence: Principles and practice. Springer International Publishing AG, 2024.
- Мокшанов М.В. Применение искусственного интеллекта в анализе данных: обзор текущего состояния и будущих направлений // Universum: технические науки. 2024. № 5(122). Режим доступа: https://7universum.com/ru/tech/archive/item/17513 (дата обращения: 21.07.2025).
- Сёрл Д. Сознание, мозг и программы // Аналитическая философия: Становление и развитие (онтология). М. : Дом интеллектуальной книги, 1998.
- Смирнов С.А. Исчислимо ли бытие человека, или Антропология искусственного интеллекта. Методологический аспект // Вестник Санкт-Петербургского университета. Философия и конфликтология. 2023. Т. 39, № 3. С. 478-491. doi: 10.21638/spbu17.2023.306 EDN: SFQBCU
- Соложенкин Б.С. Основные понятия биоэтики в их философско-антропологической перспективе: о диалектике жизни и смерти // Социально-гуманитарное познание: методологические и содержательные параллели : коллективная монография / под общ. ред. А.В. Грехова, А.Н. Фатенкова. М. : Аквилон, 2019. EDN: ZHFJAL
- Charles T. Human agency and language. Philosophical Papers. Vol. 1. Cambridge : Cambridge University Press, 1985.
- Сафонова Ю.А., Субочева О.Н., Коршкова А.С. Агентность искусственных автономных систем как фактор трансформации социума // Социология. 2023. № 6. С. 116-122. EDN: BSOFML
- Floridi L. The ethics of artificial intelligence: Principles, challenges, and opportunities. Oxford : Oxford University Press, 2023.
- Ågerfalk P.J. Arti cial intelligence as digital agency // European Journal of Information Systems. 2020. Vol. 29, no. 1. P. 1-8. doi: 10.1080/0960085X.2020.1721947
- Дрейфус Х. Чего не могут вычислительные машины: Критика искусственного разума / общ. ред. Б.В. Бирюкова. М. : Книжный дом «ЛИБРОКОМ», 2010.
- Крылов Н.Н. Этика хирургии. Диалоги с хирургом: Диалоги с хирургом о профессиональной морали и нравственности. М. : Филинъ, 2021.
- Декомб В. Дополнение к субъекту: исследование феномена действия от собственного лица / пер. с фр. М. Голованивской. М. : Новое литературное обозрение, 2011.
- Gunkel D.J. Mind the gap: responsible robotics and the problem of responsibility // Ethics and Information Technology. 2020. Vol. 22, no. 4. P. 307-320. doi: 10.1007/s10676-017-9428-2 EDN: ZCENSQ
- Coeckelbergh M. You, robot: on the linguistic construction of artificial others // AI & society. 2011. Vol. 26. № 1. P. 61-69. doi: 10.1007/s00146-010-0289-z EDN: CYPWXM
- Empathy toward artificial intelligence versus human experiences and the role of transparency in mental health and social support chatbot design: Comparative study / J. Shen, D. Dipaola, S. Ali [et al.] // JMIR Mental Health. 2024. Vol. 11. P. e62679. doi: 10.2196/62679 EDN: NPZKBE
- Chiu T.K.F., Moorhouse B.L., Chai C.S., Ismailov M. Teacher support and student motivation to learn with Artificial Intelligence (AI) based chatbot // Interactive Learning Environments. 2024. Vol. 32, no. 7. P. 3240-3256. doi: 10.1080/10494820.2023. 2172044
- Shannon V. Technology and the virtues: a philosophical guide to a future worth wanting. Oxford : Oxford University Press, 2016.
- Силуянова И.В., Назарова Е.В. Вклад Н.И. Пирогова в развитие профессиональной этики врача // Вестник РГМУ. 2010. № 5. С. 98-101. EDN: NDDQJF
- Blasimme A., Vayena E. The Ethics of AI in Biomedical Research, Patient Care, and Public Health // The Oxford handbook of ethics of AI / ed. by M.D. Dubber, F. Pasquale, S. Das. Oxford : Oxford University Press, 2020.
- Андреева Ю.В., Антонова И.И., Шакурова А.Р., Гарнаева Г.И., Ефимов М.Г. Анализ вовлеченности в процесс взаимодействия с нейросетью студентов и педагогов // Компетентность / Competency (Russia). 2024. № 9-10. С. 6-12. doi: 10.24412/1993-8780-2024-9-06-12 EDN: PILSCE
- Fasoli, M., Cassinadri, G. Ienca, M. The Dark Side of Cognitive Enhancement: A Framework for the Technologically Induced Cognitive Diminishment // Journal of Cognitive Enhancement. 2025. Vol. 9. P. 1-14. doi: 10.1007/s41465-025-00331-7
- Бермус А.Г., Сизова Е.В. Этические аспекты реализации технологий искусственного интеллекта в классическом университете: анализ отношения студенческой аудитории // Непрерывное образование: XXI век. 2025. Т. 13, № 2. С. 1-16. doi: 10.15393/j5.art.2025.10585 EDN: BQHTHY
- Брызгалина Е.В., Гумарова А.Н., Шкомова Е.М. Ключевые проблемы, риски и ограничения применения ИИ в медицине и образовании // Вестник Московского университета. Серия 7. Философия. 2022. № 6. С. 93-108. EDN: GXUYWB1658
Дополнительные файлы










