Искусственный интеллект в современном обществе: шаги, вызовы, стратегии

Обложка

Цитировать

Полный текст

Аннотация

Актуальность исследования обусловлена тем, что технологии искусственного интеллекта стремительно развиваются и обладают огромным потенциалом, который с успехом может быть использован на благо человечества, но в то же время таят в себе в условиях социальной и этико-правовой неопределенности немало новых вызовов и ставят ряд этических вопросов в отношении будущего уклада жизни человеческого общества и путей, по которым пойдет его дальнейшее развитие. В статье подчеркивается, что искусственный интеллект обладает потенциалом для того, чтобы изменить будущее человечества в лучшую сторону, тем не менее, искусственные интеллектуальные системы по своей сути не нейтральны и характеризуются внутренне присущей им предвзятостью, которая обусловлена исходными данными, использовавшимися при их «обучении». Ввиду масштабности социальных последствий технологий искусственного интеллекта многие страны обеспокоены сегодня этическими аспектами его использования. Для того чтобы наметить возможные сценарии и задействовать потенциал искусственного интеллекта для реализации возможностей в сфере развития при сохранении контроля над рисками, важно выработать более всестороннее понимание социальных изменений, вызванных все более расширяющимся применением интеллектуальных систем. Делается вывод о том, что проблемы применения искусственного интеллекта необходимо рассматривать сквозь призму анализа социальной сущности человека, современной социокультурной реальности, гуманистических целей и ценностей современного социума. Любые достижения в сфере искусственного интеллекта имеют смысл только в том случае, если они соотносятся с подлинно человеческими ценностями. Отсутствие на сегодняшний день утвержденных на международном уровне этико-правовых норм и стандартов, касающихся применения разработок и инноваций в сфере искусственного интеллекта свидетельствует о необходимости активной и направленной работы российского исследовательского сообщества в данной сфере.

Полный текст

Введение

Искусственный интеллект (ИИ) является одним из ключевых элементов эпохи конвергенции технологий, который сопряжен с глубокими последствиями для человека, культуры, общества и окружающей среды. Вполне вероятно, что ИИ изменит будущее образования, науки, культуры и коммуникации, то есть основных сфер жизни современного общества. Хотя единого определения понятия «искусственный интеллект» в современной исследовательской литературе не существует, речь идет, как правило, о машинах, способных имитировать определенные функции человеческого интеллекта, включая такие его свойства, как восприятие, обучаемость и логическое мышление, а также способности к решению задач, языковому взаимодействию и даже художественному творчеству.

Искусственный интеллект, бесспорно, обладает потенциалом для того, чтобы изменить будущее человечества в лучшую сторону и в интересах устойчивого развития, тем не менее, все больше людей осознают связанные с ИИ риски и проблемы, особенно в плане усугубления существующего неравенства и диспропорций, а также последствия его использования для сферы прав человека. Ввиду масштабности социальных последствий ИИ многие страны обеспокоены сегодня этическими аспектами его использования. Для того чтобы наметить возможные сценарии и задействовать потенциал ИИ для реализации возможностей в сфере развития при сохранении контроля над рисками, важно выработать более всестороннее понимание того, как общество меняется под воздействием таких революционных технологий, как  искусственный интеллект.

Такая работа должна сопровождаться этическим анализом ввиду того, что технологии ИИ не являются нейтральными, а отличаются внутренне присущей предвзятостью, обусловленной данными, которые используются в ходе их обучения, и решениями, которые принимаются в процессе обучения с применением этих данных, а также ввиду того, что решения ИИ не могут быть в полной мере предсказуемы. Кроме того, поскольку ИИ представляет собой распределенную технологию, управление которой сегодня на практике осуществляется многочисленными учреждениями, организациями и компаниями, для анализа вопросов ответственного управления ИИ необходим плюралистический, междисциплинарный, поликультурный и многосторонний подход, который бы стимулировал обсуждение вопросов о том, к какому будущему для человечества мы стремимся. В ходе этого анализа необходимо рассмотреть основные проблемы в области разработки технологий ИИ,  касающиеся заложенных в алгоритмах предубеждений, включая гендерные предрассудки, защиту неприкосновенности частной жизни и персональных данных, риски создания новых форм социальной изоляции и неравенства, а также вопросы справедливого распределения выгод и рисков, подконтрольности, ответственности, влияния на занятость, эволюцию труда и мышления человека.

Инновации, связанные с ИИ, сегодня используются во многих областях современной жизни, таких, как транспорт, медицина, коммуникации, образование, наука, финансы, право, военное дело, сфера обслуживания, маркетинг и организация досуга [1. С. 62]. Эти инновации напрямую связаны с целым рядом этических проблем, начиная с ликвидации традиционных рабочих мест и ответственности за возможный физический или психологический ущерб для человека и заканчивая общей дегуманизацией отношений между людьми и обществом в целом. В настоящее время ни одна из систем ИИ не может рассматриваться в качестве разумного субъекта действия универсального назначения, способного хорошо функционировать в широком диапазоне условий внешней среды, что является неотъемлемым свойством человеческого интеллекта.

Особенности функционирования систем искусственного интеллекта

Анализ современной исследовательской литературы, посвященной проблемам применения искусственного интеллекта позволяет сделать вывод о том, что существующий в настоящее время на уровне технологии, применяемый в различных областях общественной жизни и требующий регулирования со стороны государственных, общественных организаций, общества в целом искусственный интеллект — это так называемый слабый (узкий) искусственный интеллект, созданный человеком для решения определенных, узконаправленных задач [2. С. 932]. Узкий ИИ представлен системами, элементами которых являются аппаратные комплексы, программное обеспечение, наборы данных. Для того, чтобы система ИИ могла решать задачи, посильные разуму человека, она должна воспринимать окружающую среду, собирать данные в динамическом режиме, быстро их обрабатывать и реагировать на них, опираясь на свой прошлый «опыт», заложенные в систему принципы принятия  решений и предвидения будущего. Однако технология, лежащая в основе  современных и широко применяемых систем ИИ, по сути является обычной информационно-коммуникационной технологией. Она основана на сборе и получении данных, их хранении, обработке и передаче. Уникальные  характеристики когнитивных машин обусловлены количеством, которое переходит в качество. В основе технологии ИИ лежат следующие элементы:

–  Динамические данные. На систему должны воздействовать изменяющиеся условия внешней среды, и она должна получать все необходимые данные с помощью различных датчиков, классифицировать и хранить их, а также быть в состоянии оперативно их обрабатывать.

–  Оперативная обработка. Когнитивные машины должны реагировать быстро. Поэтому ИИ должен обладать надежными, быстродействующими и мощными вычислительными и коммуникационными средствами.

–  Принципы принятия решений. ИИ принимает решения на основе алгоритмов машинного обучения. Поэтому его реакция на конкретную задачу зависит от «опыта», которым располагает система, то есть от тех данных, которые она получала. Алгоритмы, лежащие в основе принимаемых когнитивными машинами решений, базируются на некоторых общих принципах,  которые алгоритм соблюдает и пытается оптимизировать с учетом поступающих данных [3].

Имеющаяся в настоящее время возможность эффективным образом интегрировать алгоритмы динамического сбора данных и машинного обучения в целях оперативного принятия решений и позволяет создавать «когнитивные машины».

Этически обоснованное проектирование

Разработка технологий будущего находится в руках специалистов технического профиля. Традиционно инженеров учат создавать продукты, обеспечивающие оптимальную производительность с минимальными затратами  (в отношении энергии, спектра, пространства, веса и так далее) в условиях заданных внешних ограничений. В последние десятилетия в сфере инженерной этики были разработаны различные методы интеграции элементов этического анализа, ответственности и обоснования в процесс проектирования. В контексте ИИ для обозначения методов проектирования, недвусмысленным образом ориентированных на человеческие ценности, был введен термин «этически обоснованное проектирование» (ЭОП)1.

Этическое регулирование применения ИИ необходимо вводить уже на этапе его проектирования. Методы этически обоснованного проектирования особенно важно применять при разработке систем ИИ и других автономных интеллектуальных систем, поскольку это позволяет решать этические проблемы на том этапе, когда технологию еще можно адаптировать к существующим этическим и правовым нормам. Хорошей иллюстрацией такого подхода является концепция «встроенной конфиденциальности». Нарушений права на неприкосновенность частной жизни будет меньше, если сохранять не все данные, а только те, которые необходимы для решения конкретной  задачи. Разработчики ИИ могут сходным образом учесть и другие вопросы, которые потенциально могут вызвать этические проблемы, такие, как предотвращение алгоритмической предвзятости при принятии решений. Может быть сведено к минимуму злоупотребление технологиями, обеспечено объяснение алгоритмических решений [4. C. 45].

В то же время инженерное образование в сегодняшнем мире по большей части сводится к естественнонаучным и технологическим курсам, напрямую не связанным с анализом человеческих ценностей, который был бы очевидным образом нацелен на реальный рост благополучия людей и экологического благосостояния. Очень важно изменить это положение вещей и начать обучать будущих инженеров и программистов методам этически обоснованного проектирования систем ИИ. Для этого нужно ясно осознавать потенциальные социальные и этические последствия применения технологий ИИ  и возможные злоупотребления ими [5. C. 58].

Решение этических проблем в контексте широкого применения технологий ИИ требует активных усилий по обеспечению социокультурного многообразия инженерного сообщества, а также всестороннего учета социальных и этических последствий разработки систем ИИ. Следует поощрять диалог между инженерным корпусом и общественностью, направленный на содействие обмену информацией о потребностях и задачах общества, а также  о методах, которые инженеры применяют в своей повседневной работе и исследовательской деятельности.

Принятие решений с помощью ИИ: этический аспект

Методы, основанные на ИИ, потенциально могут оказать огромное воздействие на принятие решений в самых разных областях общественной жизни. Ключевым вопросом при использовании ИИ в этих целях является характер и интерпретация результатов работы алгоритмов, которые не всегда понятны человеку. К.Д. Эшли отмечает: «Поскольку алгоритм машинного обучения усваивает правила на основе статистических закономерностей,  которые могут вызвать у людей удивление, такие правила не всегда представляются людям обоснованными… Хотя выведенные машиной правила могут приводить к точным прогнозам, они не отталкиваются от человеческого опыта и могут быть менее понятны для людей, чем правила, сформулированные экспертом «вручную». Поскольку правила, выведенные алгоритмом, не обязательно отражают эксплицитные юридические знания или опыт, они могут не соответствовать критериям обоснованности, используемым экспертами-людьми» [6. C. 111].

Этот вопрос касается и более широкой области принятия решений на  основе данных. Поскольку система ИИ в состоянии анализировать, обрабатывать и классифицировать очень большие объемы весьма разнородных  данных, которые к тому же могут очень быстро изменяться, такая система считается способной предлагать, а если ей это будет позволено, то и принимать решения в сложных ситуациях.

Вместе с том в вопросе о правильности предлагаемого ИИ решения следует проявлять осторожность. Такое решение не обязательно является беспристрастным, справедливым, точным или уместным. На него влияют неточности, избирательность результатов, заложенная или привнесенная в систему предвзятость, а также ограничения, свойственные процессу обучения. Люди не только имеют гораздо более широкое мировоззрение, но и обладают неявными знаниями, которые позволяют им демонстрировать лучшие по сравнению с ИИ результаты в критических или сложных ситуациях. В идеале оптимальным решением является то, которое мог бы принять человек, если бы он был в состоянии обработать огромный массив данных в приемлемые сроки. Однако люди обладают иными возможностями и способны принимать  решения творчески, а не на основе алгоритмов.

Весьма сомнительно, что ИИ — по крайней мере в ближайшем будущем — будет в состоянии справляться с неоднозначными и быстро меняющимися данными или интерпретировать и осуществлять намерения человека в том виде, который они могли бы принять, если бы человек был способен обрабатывать сложные массивы разнородных данных. Даже если решения, вырабатываемые машиной, будет контролировать включенный в процесс управления человек — этого может оказаться недостаточно для принятия правильного решения. Поскольку когнитивный ИИ принимает решения не так, как это делают люди, человек не обладает знаниями и информацией,  необходимыми для того, чтобы определить, соответствует ли решение, выработанное на основе данных, его намерениям. Более того, стохастическое  поведение когнитивного ИИ наряду с обусловленной им неспособностью человека понять, почему система сделала той или ной выбор, приводят к снижению уровня доверия к выбранному решению [7]. В некоторых случаях  использование ИИ в качестве субъекта принятия решений (с помощью человека или полностью в автономном режиме) может рассматриваться как несущее риски: за скорость обработки и сортировки больших массивов данных, которая присуща системам на основе ИИ, мы должны заплатить отказом от возможности влиять на принимаемые ими решения. В настоящее время вряд ли это можно признать допустимым, поскольку такие решения могут иметь далеко идущие последствия, особенно в конфликтных ситуациях.

Основные требования этики разработки,  реализации и использования ИИ

Разработка этики применения ИИ еще предстоит специалистам в области этики, социологии и др. общественных наук. На прошедшей 24 ноября  2023 г. в Москве конференции по искусственному интеллекту AI Journey  Президент Российской Федерации В.В. Путин заявил: «С внедрением искусственного интеллекта в науку, образование, здравоохранение, все сферы нашей жизни — человечество начинает новую главу своего существования». По его словам, граждане России наблюдают, как искусственный интеллект «делает более простыми и удобными многие повседневные процессы» и все шире применяется в сфере госуслуг и госуправления2.

Президент РФ В.В. Путин 15 февраля 2024 г. подписал указ о поправках к Национальной стратегии развития искусственного интеллекта на период до 2030 г. Согласно стратегии, объем оказанных услуг по разработке и реализации решений в области ИИ к 2030 г. должен вырасти как минимум до 60 млрд руб. по сравнению с 12 млрд руб. в 2022 г. Также планируется, что вырастет количество выпускников высших учебных заведений в сфере нейросетей с 3000 до 15 500 человек. Доля приоритетных отраслей экономики с высокой готовностью к внедрению ИИ увеличится с 12 до 95 %3.

Еще в 2019 г. В.В. Путин предложил разработать этические нормы взаимодействия человека с искусственным интеллектом: «Сейчас во всем мире разворачивается дискуссия о социальных аспектах и последствиях использования искусственного интеллекта, это очень важная тема. Предлагаю профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом»4.

В то же время, часто в исследовательской литературе встречается мнение о преждевременности этического и правового регулирования применения технологий ИИ. Эта позиция наиболее четко отражена в монографии  А.В. Минбалеева, по мнению которого такие понятия, как «искусственный интеллект», «блокчейн», «облачные технологии», «киберфизические системы» и т.п., должны формироваться изначально на уровне технического регулирования, и право, как механизм правового воздействия, не должно ставить перед собой задачу урегулировать технические объекты [8. C. 13].

Однако этические нормы разработки и применения ИИ также обсуждаются. Уже сегодня можно обозначить некоторые принципы, которые могут быть положены в основу такой этической системы. К числу этих принципов можно отнести следующие:

–  Права человека: системы ИИ должны разрабатываться и реализовываться в соответствии с международными стандартами в области прав  человека.

–  Инклюзивность: системы ИИ должны быть инклюзивными, нацеленными на недопущение предвзятости, обеспечение социального и культурного разнообразия и предотвращение нового цифрового разрыва.

–  Благополучие: системы ИИ должны разрабатываться в целях повышения качества жизни.

–  Автономия: системы ИИ должны уважать автономию человека, требуя постоянного контроля со стороны людей.

–  Объяснимость: системы ИИ должны быть объяснимыми, в принципы их работы понятными.

–  Прозрачность: данные, используемые для обучения систем ИИ, должны быть прозрачными.

–  Осведомленность и грамотность: для расширения прав и возможностей граждан необходима осведомленность в вопросах алгоритмов и понимание базовых принципов работы ИИ.

–  Ответственность: при разработке автономных интеллектуальных  систем разработчики и компании должны принимать во внимание этические аспекты.

–  Подотчетность: необходимо разработать механизмы распределения ответственности за решения, принимаемые с помощью систем ИИ, и принимаемые ими действия.

–  Устойчивое развитие: для каких бы целей ни применялся ИИ, потенциальные выгоды всегда нужно соизмерять с воздействием на окружающую среду всего производственного цикла систем ИИ и информационных  технологий[5].

Выводы

Технологии искусственного интеллекта стремительно развиваются и обладают огромным потенциалом, который с успехом может быть использован на благо человечества, но в то же время таят в себе в условиях социальной и этико-правовой неопределенности немало новых вызовов и ставят ряд этических вопросов в отношении будущего уклада жизни человеческого общества и путей, по которым пойдет его дальнейшее развитие. Искусственные интеллектуальные системы по своей сути не нейтральны и характеризуются внутренне присущей им предвзятостью, которая обусловлена исходными данными, использовавшимися при их «обучении». Проблемы применения ИИ необходимо рассматривать сквозь призму анализа социальной сущности человека, современной социокультурной реальности, гуманистических целей и ценностей современного социума. Любые достижения в сфере ИИ имеют смысл только в том случае, если они соотносятся с подлинно человеческими ценностями. Тем более важным является «формирование гибкой правовой среды, позволяющей системно и без сбоев отвечать на новые вызовы и постоянную технологическую трансформацию. Правовое регулирование должно быть максимально приближено к реальности и охватывать не только сегодняшние системы, но и закладывать базовые регуляторные правила для будущего. Этот аспект будет иметь определяющее значение для конкурентоспособности и развития российского рынка в сфере технологий ИИ» [9. С. 194]. Тема социальных последствий и этико-правовых аспектов применения технологий искусственного интеллекта сегодня широко обсуждается российским и международным исследовательским сообществом. Как следует из разворачивающихся сегодня дискуссий, на глобальном уровне существует потребность в общих универсальных этических принципах, отражающих ключевые ценности, которые должны лежать в основе разработки систем ИИ.

Отсутствие на сегодняшний день утвержденных на международном уровне этико-правовых норм и стандартов, касающихся применения разработок и инноваций в сфере искусственного интеллекта свидетельствует о необходимости активной и направленной работы российского исследовательского сообщества в сфере социальных наук, связанной с разработкой этики применения ИИ в таких областях, как обеспечение мира и безопасности, здоровье и благополучие человека, сохранение цивилизационной идентичности и традиционных ценностей. Наша страна в полной мере может и должна быть пионером исследовательской и практической работы в этой сфере. Помимо формального закрепления базовых принципов применения ИИ разработка и принятие норм и стандартов в этой области, хотя бы в форме рекомендаций или этической декларации, положительно сказалось бы на формировании политики в этой области, способствовало бы расширению возможностей и укреплению потенциала российского государства в вопросах принятия необходимых мер в тех сферах, которые в первую очередь будут затронуты развитием ИИ-технологий, включая культуру, образование, науку, информационную среду и коммуникации. Такой документ должен предусматривать глобальный механизм документирования социокультурных изменений, вызванных стремительным нелинейным развитием ИИ и сопутствующих этических вопросов. Он также должен способствовать интеграции ценностей в системы ИИ, которые необходимо привести в соответствие как с согласованными на международном уровне стандартами в области устойчивого развития и прав человека, так и с традиционными российскими ценностями: жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу. Подобный документ имел бы также важное значение с точки зрения укрепления потенциала, обмена знаниями и закрепления передового опыта.

 

1 Рекомендации для этически обоснованного проектирования Концепция взаимодействия людей с искусственными интеллектом и автономными системами с приоритетом человеческих ценностей // The IEEE Standards Association. Режим доступа: https://standards.ieee.org/content/dam/ieee-standards/standards/ web/documents/other /ead.pdf/ (дата обращения: 02.12.2023).

2 Путин назвал искусственный интеллект новой главой в жизни человечества // Ежедневная деловая газета РБК. Политика. 24 ноября 2023 г. Режим доступа: https://www.rbc.ru/bcfreenews/65609a8e 9a79474e2f129c82 (дата обращения: 02.12.2023).

3 Указ Президента Российской Федерации от 15.02.2024 № 124 «О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» и в Национальную стратегию, утвержденную этим Указом». Режим доступа: http://publication.pravo.gov.ru/document/0001202402150063 (дата  обращения: 02.12.2023).

4 Этика искусственного интеллекта. Режим доступа: https://ethics.a-ai.ru/ (дата обращения: 02.12.2023).

5 Разработка рекомендаций об этических аспектах искусственного интеллекта. Сайт ЮНЕСКО. Режим доступа: https://ru.unesco.org/artificial-intelligence/ethics (дата обращения: 02.12.2023).

×

Об авторах

Владимир Анатольевич Цвык

Poссийский университет дружбы народов

Автор, ответственный за переписку.
Email: tsvyk-va@rudn.ru
ORCID iD: 0000-0002-7814-5504
SPIN-код: 5410-3700

доктор философских наук, профессор, заведующий кафедрой этики, факультет гуманитарных и социальных наук

Российская Федерация, 117198, Москва, ул. Миклухо-Маклая, д. 6

Ирина Вячеславовна Цвык

Московский авиационный институт (национальный исследовательский университет)

Email: tsvykirina@mail.ru
ORCID iD: 0000-0001-8597-2498
SPIN-код: 2302-1089

доктор философских наук, профессор, кафедра философии

Российская Федерация, 125993, Москва, Волоколамское шоссе, д. 4

Галина Игоревна Цвык

Email: galya_91@mail.ru
SPIN-код: 6515-6564

кандидат исторических наук, независимый исследователь

Список литературы

  1. Цвык В.А., Цвык И.В. Социальные проблемы развития и применения искусственного интеллекта // Вестник Российского университета дружбы народов. Серия: Социология. 2022. Т. 22. № 1. С. 58-69.
  2. Цвык В.А., Цвык И.В., Павлова Т.П. Проблемное поле философских дискурсов о применении систем искусственного интеллекта в социуме // Вестник Российского университета дружбы народов. Серия: Философия. 2023. Т. 27. № 4. С. 928-939.
  3. Frankish K., Ramsey W.M. The Cambridge handbook of artificial intelligence. Cambridge : Cambridge University Press, 2014.
  4. Квон Д.А., Павлова Т.П., Цвык И.В. Философия и методология искусственного интеллекта. М. : Изд-во МАИ, 2022.
  5. Научно-технический прогресс и этическая парадигма XXI века / под ред. В.А. Цвыка, И.В. Цвык. М. : Изд-во РУДН, 2018.
  6. Ashley K.D. Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge : Cambridge University Press, 2017.
  7. Illanes P., Lund S., Mourshed M., Rutherford S., Tyreman M. Retraining and reskilling workers in the age of automation. Режим доступа: https://www.mckinsey.com/featured-insights/future-of-work/retraining-and-reskilling-workers-in-the-age-of-automation (дата обращения: 06.12.2023).
  8. Механизмы и модели регулирования цифровых технологий: монография / под ред. А.В. Минбалеева. М. : Проспект, 2020.
  9. Журков А.А. Этические аспекты использования систем искусственного интеллекта: международно-правовой опыт // Вестник Университета Кутафина. 2022. № 4. С. 186-194.

© Цвык В.А., Цвык И.В., Цвык Г.И., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах