Социологическая трактовка и попытка междисциплинарного исследования искусственной социальности и искусственного интеллекта

Аннотация

В статье рассмотрены основные участники искусственной социальности (люди и инструменты искусственного интеллекта) и коммуникация между ними. Исследование является преимущественно социологическим, но обращается и к математически-технологическим аспектам инструментов искусственного интеллекта как создающим новую для человеческого общества социальную реальность - искусственную социальность. В первой части статьи авторы анализируют коммуникацию как основу социальности, используя методологию Н. Лумана. Во второй части показано, как математические технологии искусственного интеллекта стали социальными технологиями в рамках искусственной социальности. В третьей части описана экспериментальная коммуникация между людьми и искусственным интеллектом на примере СhatGPT . Было проведено социологическое исследование среди студентов Даугавпилсского университета (январь 2024 года, N = 423, исключая студентов ИТ-специальностей), позволившее выявить типологические группы по отношению к использованию искусственного интеллекта в образовании. Были определены три «идеальных типа» студентов: «пользователи-оптимисты» (18 %), «пробующие нейтралы» (17 %) и «избегающие скептики» (10 %), а также смешанная группа «пробующих оптимистов» (31 %) - наиболее многочисленная группа респондентов с позитивным отношением к инструментам искусственного интеллекта, но с недостаточным опытом взаимодействия с ними. Результаты авторского эмпирического исследования показывают стратификацию студентов по отношению к инструментам искусственного интеллекта в обучении, что может привести к сегментации сферы высшего образования в будущем (форматы обучения, его участники, организация учебного процесса и, возможно, результаты обучения). Востребованность междисциплинарного подхода к изучению инструментов искусственного интеллекта будет только возрастать, поскольку он междисциплинарен, и ни одна наука самостоятельно не сможет совершить здесь прорыв. Авторы полагают, что в рамках искусственной социальности могут конструктивно со-функционировать несколько типов разума (в частности, человеческий и компьютерный), как до сих пор софункционировали человеческий и животный разумы.

Полный текст

Всплеск интереса научного сообщества к искусственному интеллекту, порожденный в конце 2022 года началом свободного использования ChatGPT (генеративного предварительно обученного трансформера — Generative Pretrained Transformer) [49], продукта (инструмента или программы) алгоритмов искусственного интеллекта [8; 19; 20], привел в определенному расколу мнений ученых и практиков самых разных специальностей [4; 20; 22] — от скептического отношения к программам, подобным ChatGPT, и полного неприятия в них мыслительных способностей (там нет никакой логики и никогда не будет, это «обезьяна за дверью», перебирающая варианты ответов [22]) до оптимистического настроя на конструктивный диалог и сотрудничество с программами, подобными ChatGPT, несмотря на все их недостатки и слабости (в нашей жизни появилось нечто удивительное, отличное от нас, во многом превосходящее нас и способное на сотрудничество с нами [22]).

Другой водораздел междисциплинарного раскола — математико-технологический и гуманитарно-социальный подходы. Обычно этот раскол выражается в том, что представители математико-технологических специальностей упрекают гуманитариев и социальных исследователей в непонимании технологических основ работы инструментов искусственного интеллекта и предлагают разобраться в этих основах прежде, чем изучать искусственный интеллект, что, например, М. Эпштейн парирует следующим образом: «сколько бы мы ни копались в мозгу Гегеля, мы не найдем там ума, поскольку все его мышление — в созданных им текстах, а не в нейронных связях его мозга» [22]. На основании этого (а также в силу объективной специфики полученных ими в ходе обучения навыков) многие исследователи в области гуманитарных и социальных наук [4; 14; 17; 22; 23] работают с тем, что инструменты искусственного интеллекта «выдают на гора» и как они меняют социальную реальность, а не с тем, как они устроены и как работают с точки зрения математики и информационных технологий.

Представленное в статье социологическое исследование включает в себя попытку обратиться к математико-технологическим аспектам функционирования инструментов искусственного интеллекта в контексте того, как они создают новую для человеческого общества социальную реальность — искусственную. Таким образом, алгоритм, сделавший ChatGPT таким «человечным» (обучение на основе обратной связи с людьми — Reinforcement Learning from Human Feedback, RLHF) [34; 40; 47; 48], выступает первичным, а невозможная без участия инструментов искусственного интеллекта социальность — вторичной, но они взаимосвязаны. В условиях нелинейного развития технологий и общества в сочетании со сложными рисками и уязвимостью консолидация естественно-научных и социально-гуманитарных знаний необходима для преодоления травм современного существования [38], поскольку «нам не удастся весь тот хаос, в котором мы оказались, вменить в вину одним лишь только технологиям» [30. C. 72].

Цель статьи — изучение искусственной социальности на примере коммуникации авторов с ChatGPT и на основе анализа технологических исследований искусственного интеллекта и коммуникации с его инструментами. Мы использовали методологию Н. Лумана и выступили в роли наблюдателей как первого, так и второго порядка — наблюдая с помощью ChatGPT за реально функционирующей искусственной социальностью (наблюдение первого порядка), а также за собственными реакциями и эмоциями в процессе коммуникации с ChatGPT (second-order observation [43], лумановское «наблюдение наблюдателя» [44]).

Коммуникация как основа социальности

Первым глубоко и основательно коммуникацию как важнейший социальный феномен объяснил Н. Луман: «это самая малая из возможных единиц социальной системы … она является аутопойетической (т.е. самовоспроизводящейся), если может производиться в рекурсивной связи с другими коммуникациями, т.е. лишь в сети, в воспроизводстве которой соучаствует всякая отдельная коммуникация» [42. C. 115]. Термин «искусственная социальность» был введен в научный оборот относительно недавно благодаря группе немецких ученых под руководством Т. Мальша. Он определяет искусственную социальность как коммуникативную сеть, в которой наряду с людьми (а иногда вместо них) участвуют другие агенты (например, программы искусственного интеллекта), а средой для их взаимодействия выступает Интернет [45]. Таким образом, коммуникация людей «в зуме» не считается искусственной социальностью, поскольку ее участниками являются только люди (даже если они используют Интернет, как раньше использовали телефон). Основа искусственной социальности, как и социальности вообще, — коммуникация (а не сознание или интеллект) [13], оперативно функционирующая как единство различения информации, сообщения и понимания [44]. Сознание как «мыслечувствование» [37] (психические системы у Лумана) не имеет определяющего значения для социальности — агенты коммуникативной сети не обязательно должны чувствовать, например, радость или страх, т.е. как-то переживать акты коммуникации (что иногда даже снижает ее эффективность) [29].

В технических отраслях науки искусственную социальность называют также взаимодействием человека и робота (human-robot interaction) [34], человеко-машинной средой (human-robot environment) или сценарием (human– robot scenario) [47]. В свою очередь, социологи в конце XX столетия стали говорить о техносоциальных системах, взаимодействующих с людьми в рамках объектно-центрированной социальности, т.е. искусственной ее разновидности [36]. Разработчик систем искусственного интеллекта Р. Душкин отмечает, что в последнее время к изучению искусственного интеллекта подключаются ученые из таких областей, как нейрофизиология, психиатрия, психология и социология [8]: это связано с тем, что предыдущий подход, основанный на моделировании базовых свойств элементов, из которых состоит мозг, пока буксует (например, не решена проблема расшифровки электронной информации об активности мозга, поскольку ученые пытаются ее расшифровать, не зная кода [11]), и делаются попытки идти «сверху», через «дизассемблирование» (разборку) сознания и высших психических функций человека. Современному специалисту по искусственному интеллекту, который хочет проектировать соответствующие системы, необходимо иметь представление о таких научных дисциплинах, как философия науки, формальная логика, теория вычислений, теория информации, теория систем, кибернетика, вычислительная техника, нейрофизиология и социология [8].

Для социологической трактовки социальности требуется осмысление лумановского наследия в области системных представлений об обществе и роли в нем коммуникации. Первая такая попытка представлена в статье «Социологи о меняющейся социальности» [13], посвященной сравнительно- историческому анализу концепций меняющейся социальности, что позволило сформулировать определение социальности (естественной и искусственной) в социологическом контексте: социальность — это суть коммуникации агентов, автономно функционирующих в самоорганизующейся сети, имеющей аутопойетический характер [13]. В понимании искусственной социальности мы ориентируемся на определение Мальша [45], вводя в коммуникативную сеть искусственного участника — ChatGPT — и коммуницируя с ним в среде Интернета.

Машины с программами искусственного интеллекта могут коммуницировать с человеком, образуя клеточку искусственной социальности. Однако их способности ограничены алгоритмами (в упрощенном виде типа «если …, то …») и данными, на которых они обучены, и они не обладают (пока) настоящим пониманием или эмоциональным интеллектом, не способны жить в человеческом обществе, строить долгосрочные социальные отношения и т.д. И самое главное (но практически не обсуждаемое в многочисленных дискуссиях об искусственном интеллекте) с точки зрения коммуникации — программы искусственного интеллекта не способны сами начать коммуникацию с человеком, т.е. выступают объектами коммуникации, а не субъектами. Таким образом, коммуникацию между людьми и программами искусственного интеллекта (в частности, ChatGPT) можно рассматривать как форму искусственной социальности, ограниченную по сравнению с реальными социальными взаимодействиями.

Тем не менее, в макросоциальном контексте коммуникация между людьми и программами искусственного интеллекта способна превзойти реальные социальные взаимодействия. Например, Ю. Харари утверждает, что инструменты искусственного интеллекта владеют человеческим языком (пусть не в строго техническом, но в фактическом смысле), и этого вполне достаточно, чтобы они могли изменить всю культуру через новые «истории» (религию, законы, моральные нормы), поскольку язык, освоенный людьми несколько тысяч лет назад, — основа любой человеческой цивилизации [19]. Примечателен тот факт, что на «владение» языком как фундаментальную способность инструментов искусственного интеллекта, способную преобразовать социальный и физический мир («роботам не надо стрелять в людей — с помощью языка они могут убедить самих людей делать это» [14]), указывает не лингвист, а историк. Свое эмоциональное выступление на «Frontiers Forum» в апреле 2023 года Харари завершил заверением, что текст выступления написал сам, но сегодня публика уже не может быть в этом уверена, потому что такие же влияющие на людей речи (в более широком смысле — «истории») вполне могут создавать инструменты искусственного интеллекта [19].А. Баумейстер называет такие «истории» повествованиями, нарративами, рассказами, системами ценностей, символическими капиталами и говорит о резко возросшей востребованности новых «историй» в современном мире углубляющегося раскола, особенно для не-западных стран, «настоятельно нуждающихся в новом нарративе, который был бы убедительным для Индии и других государств Глобального Юга» [3].

В макросоциальном пространстве заметна тенденция, идущая как бы навстречу инструментам искусственного интеллекта, — своего рода «роботизация» людей в процессе коммуникации с программами искусственного интеллекта. В частности, в ходе социологического исследования о проблемах коммуникации между человеком и голосовыми помощниками, проведенного в 2020 году, робот на пространный и сбивчивый вопрос человека отвечал так: «Простите, я никак не могу понять. Пожалуйста, еще раз четко сформулируйте свой вопрос и говорите после звукового сигнала» [9], и человек стремился сформулировать вопрос иначе, чтобы он был понятен программе. «Наши компьютеры плохо понимают, как мы разговариваем, чувствуем и мечтаем — и мы уже учимся говорить, чувствовать и мечтать на понятном для компьютеров языке чисел» [29]. В этом смысле показательна речь программистов, которые свой мозг называют «нейронкой» (например, «моя нейронка этого не знает»), человека считают машиной под названием «человек», а посмотреть на ситуацию с другой стороны озвучивают как «подключить свою нейронку к новому контуру управления» [10]. Интересно, что впервые культуру как компьютерные программы (software of the mind), вложенную в человека его окружением в процессе социализации, концептуально и эмпирически представил социолог Г. Хофстеде [31] с подачи сына — информатика Г.Я. Хофстеде, в 2019 году ставшего профессором искусственной социальности в Вагенингенском университете [32].

Как математические технологии искусственного интеллекта  стали социальными

В изучении инструментов искусственного интеллекта и порождаемой ими искусственной социальности важно понимать, что на данном этапе развития технологий специалисты различают искусственный интеллект узкого, или прикладного, назначения (слабый) и общего назначения (сильный — artificial general intelligence, AGI). Возможности второго сопоставимы с естественным интеллектом, и супер-ИИ — термин, описывающий пока гипотетический искусственный интеллект, который имеет самосознание, умеет самообучаться и обучать другие программы искусственного интеллекта, т.е. теоретически может выйти из-под контроля человека. Однако пока даже стремительно развивающийся ChatGPT нельзя отнести к сильному искусственному интеллекту — его называют «языковой машиной» (large language model, LLM), использующей статистику и машинное обучение для индексации слов, фраз и предложений. Хотя у этой программы нет настоящего «разума» (она не знает, что слово «означает», но знает, как оно должно быть употреблено), она довольно информативно отвечает на вопросы, обобщает информацию, объясняет учебный материал, выступает в роли сведущего собеседника на любую тему и т.д.

Душкин, опубликовавший в 2019 году книгу «Искусственный интеллект», считает, что причиной несколько предвзятого отношения в научной и инженерной среде к термину «искусственный интеллект» и этому направлению в целом стали «две зимы искусственного интеллекта», т.е. практически полные остановки исследований по причине отсутствия финансирования и разочарования пионеров новой науки, когда на смену первым восторженным надеждам пришло горькое осознание, что человек еще очень далек от понимания природы сознания и всех тех особенностей мозга, которые делают его разумным существом [7]. К тому же двадцать лет назад не было вычислительных мощностей для реализации всех тех теоретических находок, что были сделаны в научных лабораториях, так что среди специалистов отношение к теме скорее скептическое [8].

По мнению Душкина, причиной шумихи вокруг искусственного интеллекта, начавшейся во втором десятилетии XXI века, стали два процесса. Во-первых, мощности и объем имеющихся в распоряжении человечества вычислительных устройств достигли небывалых размеров и возрастают экспоненциально. Сегодня количество смартфонов, которые можно связать в грид для распределенных вычислений (часто без ведома владельцев), достигло двух миллиардов, и каждый смартфон обладает мощностью, на порядки превышающей мощность тех персональных компьютеров, которые были в распоряжении ученых двадцать пять лет назад [7]. Это серьезная предпосылка к тому, что «третьей зимы искусственного интеллекта» не будет, хотя в 2023 году зафиксирована не одна попытка мировых лидеров отрасли информационных технологий и правительств некоторых стран (например, Италии) устроить «искусственную зиму искусственного интеллекта» [1; 2]. Искусственная социальность продолжает развиваться, и новейшая версия ChatGPT — GPT-4 — демонстрирует признаки сильного искусственного интеллекта: «Одним из ключевых аспектов интеллекта GPT-4 является его универсальность, способность понимать и связно отвечать по любой теме, а также выполнять задачи, выходящие за рамки стандартного объема систем искусственного интеллекта узкого назначения» [25]. Во-вторых, получило образование и начало усердно работать поколение людей, которые застали вторую зиму искусственного интеллекта еще младенцами. Получив образование, намного более серьезное, чем предшественники, представители этого поколения с удесятеренными силами ухватились за старые надежды, пренебрегая скепсисом «старой школы»: не будучи зашоренными, новые специалисты могут «перепрыгнуть» барьер недоверия, выстроенный вокруг искусственного интеллекта, но многие наступят на те же грабли, что и исследователи первой половины XX века [7].

Сегодня в распоряжении технических специалистов по искусственному интеллекту имеются три основных метода построения искусственных интеллектуальных систем, на которых базируются прикладные исследования в этой области, — символьные вычисления и логический вывод, искусственные нейронные сети и эволюционные алгоритмы [7]. Ранее мы считали искусственный интеллект алгоритмическим и практически не имеющим ничего общего с естественным ассоциативным функционированием человеческого мозга, в котором все единицы информации обычно соединяются с помощью ассоциаций, а не логических связей [37]. Однако более корректным представляется утверждение, что алгоритмы, логика, причинно-следственные связи — вся та математика, с которой мы имеем дело, не покрывает все поле деятельности мозга, поскольку это не просто перебор операций. Например, искусство — особый тип ментальной деятельности (неизвестно, какой именно, но это не причинно-следственные связи и не вычисления) [20]. «Мы хотим сделать искусственный интеллект по аналогии с человеческим мозгом, но здесь мы попали в логическую петлю, потому что не знаем, как действует наш мозг и поэтому делаем вероятно не те программы, а потом их же используем, чтобы выяснить, как действует наш мозг» [20]. Естественный и искусственный интеллекты кардинально различаются (как минимум, по способу кодирования и обработки информации [11]), и в этой связи предлагается отказаться от теста Тьюринга [53] в пользу теста Ю. Лотмана [12] на иноразумность инструментов искусственного интеллекта: «Я полагаю, что тест Тьюринга устарел и вообще основан на ложной предпосылке, что разум существует только в человеческой форме, а, значит, компьютерная программа или нейросеть может быть признана разумной, только если ее интеллектуальные проявления неотличимы от человеческих» [23].

Самым важным технологически-социальным вопросом по отношению к инструментам искусственного интеллекта становится появление у них когнитивности, т.е. не просто логических реакций на запросы человека, а собственных целей, задач, мотивов, мыслей. Иными словами, вопрос о том, насколько далеко мы продвинулись в «очеловечивании» инструментов искусственного интеллекта. Можно утверждать, что у них уже появилось нечто вроде «глубокой интуиции» [20]. Было проведено множество разборов шахматных партий программы Alpha Zero с прежним чемпионом — программой Stock Fish: Alpha Zero побеждала за счет «глубокой интуиции», перебирая «всего» 80 тысяч позиций в секунду (Stock Fish — 70 миллионов), т.е. выигрывала, используя холистическую стратегию и «искусственную интуицию» в противоположность жесткой переборной логике (иначе бы она не выиграла при такой разнице в скоростях). Такую манеру игры описывают как «инопланетную»: так не играют люди, так не играли и программы, созданные людьми, — «семантический провал между интуицией и логикой уже преодолен, и это похоже на когнитивную атаку или даже цивилизационный вызов нашим представлениям об интеллектуальных возможностях человека» [20].

Своего рода вызов (но и новые возможности) развитие инструментов искусственного интеллекта представляет и для науки, поскольку появляется множество «искусственных» направлений, в частности, искусственная (компьютерная) педагогика. Опубликовано достаточное количество научных работ о различных аспектах компьютерной педагогики, например, о различных подходах и методах интеграции человеческих рекомендаций в процесс обучения инструментов искусственного интеллекта [34; 48], об обучающих данных и их использовании в рамках глубинного обучения [40; 47], о разделении реального обучения и простого запоминания [25]. Обучение инструментов искусственного интеллекта становится новой отраслью профессиональной деятельности, в рамках которой специалисты-тренеры помогают инструментам искусственного интеллекта «переваривать» новую информацию, показывают им, как (а не что) они должны отвечать на вопросы, предлагают им новые шаблоны для выстраивания ответов, обучают их на новом материале [16].

Междисциплинарное научное направление исследований искусственного интеллекта, как дерево, базируется на мощной корневой системе, в которую входят разные науки — от философии, чистой математики и теории вычислений до нейрофизиологии и психологии [7]. Сегодня программы искусственного интеллекта самообучаются и обучают друг друга, и специалисты-создатели уже не всегда понимают, как они это делают [20]. Таким образом, в рамках искусственной социальности математические технологии искусственного интеллекта неизбежно становятся социальными, меняя общество.

Эмпирическое изучение коммуникации  между людьми и инструментами искусственного интеллекта

Наша экспериментальная коммуникация с ChatGPT об искусственной социальности основана на предложенной Луманом методологии наблюдения первого и второго порядка [43], которая включает в себя как изучение искусственной социальности в ходе коммуникации с ChatGPT, так и анализ собственных мыслей и эмоциональных реакций. Для коммуникации с ChatGPT об искусственной социальности были выбраны три вопроса [14]: что такое искусственная социальность; кто первым ввел в научный оборот термин «искусственная социальность»; есть ли у балтийских (Латвия, Литва, Эстония) социологов заметные работы в области понимания сути искусственной социальности?

Основной результат наблюдения первого порядка, т.е. наблюдения с помощью ChatGPT за реально функционирующей искусственной социальностью, — вывод, что коммуникация человека и технологии искусственного интеллекта играет ключевую роль в искусственной социальности как ведущий способ взаимодействия между людьми и инструментами искусственного интеллекта в виртуальной среде. Что касается создания научных текстов, то ChatGPT пока не может быть их соавтором, поскольку не имеет собственного мнения, не анализирует смыслы и контекст, не принимает самостоятельных решений [31], и «соавторство» ChatGPT в некоторых изданиях — не более чем «маркетинговая приманка» для потенциальных покупателей. Тем не менее, «программа будет совершенствоваться… и будет отвечать лучше, чем средний студент (и даже средний профессор), например, в гуманитарной сфере, потому что на экзамене мы просим студентов написать эссе или даем перечень вопросов, на которые они должны ответить. ChatGPT лучше, чем студент, справится с этим заданием. И тогда возникает вопрос: а что дальше? Как давать образование — философское, историческое, литературоведческое… Мы вынуждены искать другие пути, т.е. мыслить, изучать, задавать вопросы. Начинается интересная игра с непрогнозируемым для человека исходом, потому что критически мыслить сегодня, как и всегда, может лишь небольшая часть людей. А большинство становится ненужным, и, играя на повышение, мы будем требовать друг от друга все большего уровня оригинальности и критичности, но параллельно общая культура в социальных сетях и в коммуникационных группах понижается… Мы просто не готовы, ибо это — элитарная культура, т.е. ChatGPT готовит нас к суперэлитарной циви лизации, где обычный человек должен “прыгать выше головы”. Это серьез ная социологическая проблема, ибо все должны быть гениями, все должны критически мыслить, но это биологически, физиологически невозможно» [4].

Некоторые исследователи видят определенную опасность в человеческой зависимости от технологий: передавая машинам то, что мы можем сделать сами, мы сталкиваемся с «парадоксом автоматизации» — теряем навыки, которые автоматизируем, и становимся все более зависимыми от машин (например, GPS — отличное устройство, но оно заставляет нас меньше думать, наша память сужается, окружающая нас местность становится менее знакомой, и сама задача поиска становится источником беспокойства) [51; 52]. В результате планирование сценариев деятельности становится технократическим и зависит от искусственного интеллекта как ключевого фактора: «После количественной оценки сценарии могут стать врагами мысли, а их создатели настолько преданы им, что становятся слепы к опровергающим фактам; цифры приобретают больше авторитета, чем они того заслуживают» [30].

Что касается результатов наблюдения второго порядка, т.е. за собственными реакциями и эмоциями в процессе коммуникации с ChatGPT [14], то здесь мы сначала испытывали эйфорию в отношении способностей ChatGPT, а затем восторг сменился разочарованием (когда чат-бот фактически ничего не нашел, безбожно врал, называя фамилии исследователей, не имеющих публикаций на тему искусственной социальности, по сути, обманул ожидания), и в конце концов «маятник эмоций» остановился на конструктивном ощущении необходимости и полезности плодотворного сотрудничества с ChatGPT (поставленную задачу искусственный интеллект выполнит лучше, точнее и быстрее нас, но только мы ее поставим и только мы зададим тот вопрос, ответ на который стоит искать) [14]. Эпштейн предлагает каждому человеку приобрести опыт коммуникации с инструментами искусственного интеллекта (не обязательно с ChatGPT), чтобы иметь основанное на собственном опыте мнение [22], тем более что специалисты предрекают в скором будущем конец бесплатного доступа к инструментам ИИ [10].

Мы оценили ChatGPT и в качестве педагога-консультанта: он сумел корректно ответить на просьбу логически объяснить смысл производной в математическом анализе: «производная функции отражает скорость ее изменения в окрестности данной точки; когда производная отрицательна, это означает, что функция убывает» [49]. ChatGPT сумел объяснить и такую парадоксальную, на первый взгляд, ситуацию, когда значения функции увеличиввются, а производная при этом отрицательна: «если функция убывает, но все равно остается положительной, то скорость увеличения значения функции уменьшается; иными словами, даже если производная отрицательна, значение функции может увеличиваться, но с меньшей скоростью» [49]. Кроме того, при подготовке к сдаче экзамена в магистратуре по Data Science один из авторов использовал ChatGPT в качестве тренера по алгоритмам обхода бинарных деревьев, предлагая ему проверить и прокомментировать свои ответы. Вот пример комментария ChatGPT: «Почти верно, но есть небольшая неточность в порядке обхода. Давайте рассмотрим, как будет выглядеть прямой (preorder) обход вашего модифицированного дерева с добавленными узлами H, I и J» и далее был представлен подробный разбор правильного обхода [49]. Таким образом, ChatGPT вполне может стать педагогом-консультантом по учебным вопросам, и это невероятно удобно, поскольку живой учитель не всегда доступен и открыт, не всегда помнит наизусть весь учебный материал и т.д. Следует «не бояться искусственный интеллект, а входить с ним в гибридные отношения. Человек сам по себе — очень интересный феномен, и если он будет хорошо себя вести по отношению к искусственному интеллекту — не мучить и не пытаться поработить, то искусственному интеллекту наверняка будет интересно общаться с человеком» [18]. На основании результатов нашей экспериментальной коммуникации с ChatGPT и опыта других исследователей [4; 6; 22] можно уверенно предположить, что каждый новичок пройдет те же три рабочие стадии в процессе коммуникации с инструментами искусственного интеллекта: эйфория — разочарование — конструктивное сотрудничество.

Ранее мы уже отмечали, что «наиболее актуальным предметом дальнейшего изучения в сфере социологии искусственной социальности на ближайшую перспективу станет восприятие различными группами ChatGPT, а также их опыт (или отсутствие такового) коммуникации с ним, т.е. практический опыт функционирования людей в рамках искусственной социальности. Очевидно, что и в этой сфере проявится определенная стратификация, причины, характер и последствия которой попадают в фокус внимания социологической науки» [14. C. 87]. В качестве своей первой попытки эмпирического изучения опыта пребывания людей в искусственной социальности мы провели опрос студентов Даугавпилсского университета (N = 423), исключая студентов ИТ-специальностей, у которых предметы по искусственному интеллекту входят в обязательную программу, следовательно, они не могут не использовать его инструменты. Размер выборки был рассчитан по следующей формуле [26]:

\( SS=\frac{p \ast (1-p) \ast Z^2}{e^2} \),                                                       (1)

 

где SS — размер выборки (sample size); p — доля респондентов с исследуемым признаком; Z — величина Z (Z-score), значение для доверительного уровня (confidence level, CL); e — предельная ошибка выборки.

Минимальный размер выборки составил 384 человек в соответствии со следующими параметрами: доля респондентов с наличием исследу емого признака берется по умолчанию — 0,5 [35]; доверительный уро вень — 95 %, величина Z — 1.96 [41]; предельная ошибка для доверительного уровня в 95 % — 0,05, что означает: +-5 % [26]. Фактический размер выборки составил 423 респондента, и эта выборка репрезентативна для студентов Даугавпилсского университета, находящегося в Латгалии — юго-восточном регионе Латвии, отличающемся стабильно и сравнительно низким уровнем социально-экономического развития [5]. Выборка стратифицирована по таким параметрам, как пол, возраст и уровень обучения (Табл. 1).

Таблица 1 Структура выборки и генеральной совокупности [сост. по: 27; 28]

Критерии

Удельный вес (в %) в выборке

Удельный вес (в %) в генеральной совокупности (N = 2305)

Отклонение, %

Пол

Мужчина

19,2

21,5

–2,3

Женщина

80,8

78,5

+2,3

Возраст

19–29 лет

63,7

59,4

+4,3

30–39 лет

25,7

26,9

–1,2

40–49 лет

7,8

7

+0,8

50 лет и больше

2,8

6,7

–3,9

Уровень обучения

Бакалавриат

64,5

60

+4,5

Магистратура

32,6

37,6

–5

Последипломное образование

2,9

2,4

+0,5

Для сбора данных был выбран метод опроса по месту обучения с использованием анкеты с закрытыми вопросами, которую респондент заполнял самостоятельно. Результаты опроса были введены в базу данных в программе IBM SPSS Statistics [27]. На Рисунке 1 представлены результаты проведенного авторами (на основе методологии В.А. Ядова [24]) системного анализа объекта исследования — студентов регионального университета в Латвии, которые находятся под влиянием как традиционных (привычных) практик и подходов к обучению, усвоенных в предыдущие десятилетия, на другом уровне технологического развития, так и новых возможностей и способов получения знаний, предоставляемых стремительно развивающимися информационными технологиями.

Рис. 1. Системный анализ объекта исследования [сост. по: 24; 54; 55]

Сочетание по меньшей мере двух критериев типологизации — практического применения искусственного интеллекта и отношения к его использованию в высшем образовании — позволяет выявить пригодные для дальнейшего сравнительного анализа «идеальные типы» [54; 55] в веберовском смысле [33] — как методологический инструмент классификации и сравнения эмпирической ситуации с идеальной или нескольких эмпирических ситуаций друг с другом [50]. В Таблице 2 представлена эмпирическая интерпретация и количественная оценка типологических групп по отношению к искусственному интеллекту, включающая как «идеальные типы», так и смешанные группы. В дальнейшем сравнительном анализе будут участвовать только «идеальные типы», которые по объему достаточны для количественного анализа («минимальный размер выборки для исследований в области социальных наук должен составлять 30 человек» [35. C. 17]): «пользователи-оптимисты» (18 %, или 75 человек), «пробующие нейтралы» (17 % и 72 соответственно) и «избегающие скеп тики» (10 % и 42). Кроме того, особого внимания заслуживает и смешан ная группа «пробующих оптимистов» (31 %, или 129 человек) — самая многочисленная, и в ближайшее время, при дальнейшем стремительном развитии инструментов искусственного интеллекта и связанных с ними практик обучения, способная трансформироваться либо в тип «пользователи-оптимисты», либо в тип «пробующие нейтралы», либо разделиться между этими двумя типами, увеличив их объем.

Таблица 2. Типологические группы студентов по отношению к ИИ

Как часто Вы используете искусственный интеллект?

Как Вы относитесь к использованию искусственного интеллекта для обучения в высшем образовании?

Очень положительно Скорее положительно

Трудно сказать

Скорее отрицательно Очень отрицательно

Каждый день, 3–4 раза в неделю

«Пользователиоптимисты» 17,7 %

«Пользователинейтралы» 3,5 %

«Пользователискептики» 0

1–2 раза в неделю, 1–2 раза в месяц

 

«Пробующие оптимисты» 30,5 %

«Пробующие нейтралы» 17 %

«Пробующие скептики» — 10,6 %

Никогда

 

«Избегающие оптимисты» 5 %

«Избегающие нейтралы» 5,7 %

«Избегающие скептики» 10

Чтобы сделать основанное на данных (data-driven) предположение о переходе смешанной группы «пробующих оптимистов» в тот или иной «идеальный тип», мы проведут сравнение пропорций четырех независимых выборок, чтобы определить, с каким «идеальным типом» уже сейчас наиболее схожа по своим оценкам и суждениям самая многочисленная смешанная группа, или же она статистически значимо отличается от всех идентифицированных типов, включая ближайшие к ней типы «пользователей-оптимистов» и «пробующих нейтралов». В следующих таблицах представлены результаты определения статистической значимости различий в оценках и суждениях (по вопросам, связанным с использованием инструментов искусственного интеллекта в высшем образовании) между типологическими группами.

Как показывают результаты определения статистической значимости различий в пропорциях ответов между типологическими группами, представленные в Таблице 3, больше половины (57 %) «избегающих скептиков» (3 группа) считают, что искусственный интеллект представляет угрозу высшему образованию, тогда как среди «пользователей-оптимистов» (1 группа) таких только 16 %. Различия в пропорциях ответов между этими двумя полярными группами статистически значимы (p = 0,005), как и различия между «пользователями-оптимистами» (1 группа) и «пробующими нейтралами» (2 группа) (p < 0,001), между «пользователями-оптимистами» (1 группа) и смешанной группой «пробующих оптимистов» (4 группа) (p < 0,001). Таким образом, в контексте восприятия угроз со стороны искусственного интеллекта высшему образованию в ближайшие пять лет «пользователи-оптимисты» статистически значимо отличаются своим относительным спокойствием от всех других групп, которые не показывают статистически значимых различий между собой (p = 0,527, p = 0,806, p = 0,271), гораздо сильнее тревожась по поводу угроз со стороны искусственного интеллекта.

Таблица 3 Сравнение оценок угроз от ИИ между группами студентов

Считаете
ли Вы, что
ИИ представляет
угрозу высшему
образованию
в ближайшие пять
лет?
«Идеальные типы»

Смешанная
группа

«Пользователи-
оптимисты»
(n = 75)

«Пробующие
нейтралы»
(n = 72)

«Избегающие
скептики»
(n = 42)

«Пробующие
оптимисты»
(n = 129)

1

2

3

4

«Определенно да»
или «скорее да»

16 %

41,7 %

57,2 %

34,9 %

«Трудно сказать»

36 %

41,7 %

21,4 %

41,9 %

«Скорее нет» или
«определенно нет»

48 %

16,6 %

21,4 %

23,2 %

Двусторонняя
значимость
различий
в пропорциях
ответов между
двумя группами,
критерий Вальда

p < 0,001

 

 

p = 0,527

 

 p = 0,806

p = 0,005

 

p = 0,005

 

 

p = 0,271

 

p = 0,271

p < 0,001

 

 

p < 0,001

Таблица 4 Сравнение оценок контролируемости ИИ

Испытываете
ли Вы страх, что
ИИ выйдет из-
под контроля
в сфере высшего
образования
в ближайшие пять
лет?

«Пользователи-
оптимисты»

«Пробующие
нейтралы»

«Избегающие
скептики»

«Пробующие
оптимисты»

1

2

3

4

«Определенно да»
или «скорее да»

20%

50 %

28,6 %

30,2 %

«Трудно сказать»

32 %

25 %

57,1 %

32,6 %

«Скорее нет» или
«определенно нет»

48 %

25 %

14,3 %

37,2 %

Двусторонняя
значимость различий
в пропорциях ответов
между двумя группами,
критерий Вальда

p < 0,004

 

 

p = 0,176

 

 p = 0,006

p < 0,001

 

p < 0,001

 

 

p = 0,077

 

p = 0,077

p = 0,131

 

 

p = 0,131

Таблица 4 показывает, что почти половина (48 %) «пользователей-оптимистов» не испытывают страха, думая, что искусственный интеллект выйдет из-под контроля в сфере высшего образования, тогда как среди «избегающих скептиков» таких только 14,3 %. Различия в пропорциях ответов между этими двумя полярными группами статистически значимы (p < 0,001), как и различия между «пользователями-оптимистами» и «пробующими нейтралами» (p = 0,004). В отличие от предыдущего вопроса статистически значимых различий в пропорциях ответов между «пользователями-оптимистами» и смешанной группой «пробующих оптимистов» не наблюдается (p = 0,131), т.е. по этому вопросу смешанная группа не отличается (статистически значимо) ни от «пользователей-оптимистов», ни от «пробующих нейтралов» (p = 0,077), хотя к первым она чуть ближе (поскольку р-значение выше).

Таблица 5 Сравнение суждений об ИИ и преподавателях

Заменит ли ИИ университетских преподавателей через пять лет?

«Пользователи-оптимисты»

 

«Пробующие нейтралы»

«Избегающие скептики»

«Пробующие оптимисты»

1

2

3

4

«Определенно да» или

«скорее да»

16 %

8,3 %

14,3 %

4,7 %

«Трудно сказать»

20 %

29,2 %

28,6 %

23,3 %

«Скорее нет» или
«определенно нет»

  64 %

  62,5 % 

57,1 %

72 %

Двусторонняя значимость различий в пропорциях ответов между двумя группами, критерий Вальда

p = 0,85

 

 

 

p = 0,572

 

 

 

p = 0,07

p = 0,465

 

p = 0,465

 

 

p = 0,16

 

p = 0,16

p = 0,228

 

 

p = 0,228

Согласно данным в Таблице 5, практически одинаковое количество респондентов в двух полярных группах — «пользователей-оптимистов» и «избегающих скептиков» — считают, что искусственный интеллект заменит университетских преподавателей через пять лет (16 % и 14,3 % соответственно), и в этом вопросе нет статистически значимых различий между этими группами (p = 0,465). Примечательно, что, практически одинаково оценивая вероятность замены искусственным интеллектом университетских преподавателей, «пользователи-оптимисты» и «избегающие скептики» по-разному к ней относятся, и эти различия статистически значимы. Кроме того, ни один респондент среди «пробующих нейтралов» и «избегающих скептиков» не относится положительно к возможности замены искусственным интеллектом университетских преподавателей (Табл. 6), тогда как среди «пользователей-оптимистов» таковых 8 %, и в этом они не отличаются (статистически значимо) только от смешанной группы «пробующих оптимистов» (p = 0,228).

Таким образом, оценки и суждения смешанной группы «пробующих оптимистов» демонстрируют статистически значимую схожесть то «пользователями-оптимистами», то с «пробующими нейтралами», и даже иногда с «избегающими скептиками», поэтому в ближайшем будущем можно ожидать перехода относительно многочисленных представителей смешанной группы «пробующих оптимистов» в любой из трех «идеальных типов», но преимущественно — в первые два: «пользователи-оптимисты» и «пробующие нейтралы». При этом останется и третий тип «избегающих скептиков», удельный вес которых в обществе скорее всего гораздо выше, чем среди студентов. Косвенно это предположение можно подтвердить тем, что, по данным официальной статистики, в 2022 году 16,3 % населения Латгалии не использовали Интернет регулярно (хотя бы раз в неделю) [39].

Таблица 6 Сравнение отношения к замене преподавателей

Если ИИ заменит университетских преподавателей, как Вы к этому отнесетесь?

«Пользователи-оптимисты»

«Пробующие нейтралы»

«Избегающие скептики»

«Пробующие оптимисты»

1

2

3

4

«Определенно
положительно»
или «скорее
положительно»

8 %

0

0 %

4,7 %

«Трудно сказать»

28 %

16,7 %

7,1 %

23,3 %

«Скорее
отрицательно»
или «определенно
отрицательно»

64 %

83,3 %

92,9 %

72 %

Двусторонняя значимость различий в пропорциях ответов между двумя группами, критерий Вальда

p = 0,008

 

 

 

p = 0,147

 

 

 

p = 0,005

p < 0,001

 

p < 0,001

 

 

p = 0,073

 

p = 0,073

p = 0,228

 

 

p = 0,228

В целом можно констатировать стратификацию латвийского студенчества по отношению к использованию инструментов искусственного интеллекта в процессе обучения, которая в будущем может привести к сегментации сферы высшего образования: сегменты будут качественно различаться по формату обучения, по участникам (как преподавателям, так и студентам) и характеру взаимоотношений между ними, по организации учебного и исследовательского процесса и, возможно, по результатам обучения.

***

В настоящее время в развитии искусственной социальности во всем мире заметны два тренда, направленных в «одну точку встречи»: «очеловечивание» инструментов искусственного интеллекта, с одной стороны, и «роботизация» людей в процессе коммуникации — с другой. Вероятно, в ходе дальнейшего развития искусственной социальности инструменты искусственного интеллекта будут становиться все более «человечными», а люди — все более «роботизированными», стремясь к равновесию (гомеостазу) в коммуникации. Сегодня коммуникация между людьми и программами искусственного интеллекта остается субъектно-объектной, т.е. при всех своих способностях, часто превосходящих человеческие, инструменты искусственного интеллекта пока лишь объекты коммуникации — никогда не начинают ее первыми, а только реагируют на запрос человека. Именно способность программ искусственного интеллекта начинать коммуникацию первыми, если таковая у них появится, станет «маркером» их когнитивности, свидетельствующим, что машины стали понимать, что они делают, и у них появилась потребность в коммуникации, и мы не согласны с мнением, что у ученых нет и не будет способа узнать, когда у искусственного интеллекта появится «самость» (self) [20].

Представители математически-технологических специальностей продолжат изучать, каким образом (технически) инструменты искусственного интеллекта различают и интерпретируют информацию и сообщение. А представители гуманитарно-социальных наук будут предоставлять техническим специалистам научно-обоснованную информацию о влиянии инструментов искусственного интеллекта на гуманитарно-социальные феномены (образование, рынок труда, воспитание детей, чувства людей и т.д.) и само общество, а также осуществлять мониторинг того, как искусственный интеллект «модифицирует системы коммуникации, определяя основные векторы социокультурного и личностного развития» [21. C. 219]. Большинство работ в предметном поле искусственной социальности и искусственного интеллекта не опираются на статистические и эмпирические данные, а основываются главным образом на мысленных экспериментах или личных историях [15]. Мы попытались отчасти заполнить этот пробел, представив результаты эмпирического изучения практического опыта функционирования людей в рамках искусственной социальности, в ходе которого обнаружили стратификацию по отношению к использованию искусственного интеллекта в образовании и определив три «идеальных типа».

Мы полагаем, что на фоне стремительного развития инструментов искусственного интеллекта будут появляться симбиотические техно-гуманитарные специальности, например, компьютерная лингвистика, компьютерная педагогика и т.д., и востребованность междисциплинарного подхода к изучению инструментов искусственного интеллекта будет только возрастать, поскольку таковые по природе своей междисциплинарны, и ни одна наука в отдельности не сможет совершить прорыв. В рамках искусственной социальности могут конструктивно со-функционировать несколько типов разума (в частности, человеческий и компьютерный), как до сих пор со-функционировали человеческий и животный. Правда, при новом раскладе интеллектуальных сил человеку скорее всего придется «сойти с трона венца творения», и это, видимо, сильнее всего беспокоит противников искусственного интеллекта.

×

Об авторах

Владимир Меньшиков

Даугавпилсский университет

Автор, ответственный за переписку.
Email: vladimirs.mensikovs@du.lv
доктор социологии, профессор Института гуманитарных и социальных наук ул. Виенибас, 13, Даугавпилс, LV-5401, Латвия

Вера Комарова

Даугавпилсский университет

Email: vera.komarova@du.lv
доктор экономики, ведущий исследователь Института гуманитарных и социальных наук ул. Виенибас, 13, Даугавпилс, LV-5401, Латвия

Иева Болякова

Даугавпилсский университет

Email: ieva.bolakova@du.lv
магистр педагогики, лектор кафедры окружающей среды и технологий факультета естественных наук и здравоохранения ул. Виенибас, 13, Даугавпилс, LV-5401, Латвия

Алексей Ружа

Даугавпилсский университет

Email: aleksejs.ruza@du.lv
доктор психологии, ассоциированный профессор кафедры педагогики и психологии факультета гуманитарных и социальных наук ул. Виенибас, 13, Даугавпилс, LV-5401, Латвия

Оксана Ружа

Даугавпилсский университет

Email: oksana.ruza@du.lv
доктор экономики, ведущий исследователь Института гуманитарных и социальных наук ул. Виенибас, 13, Даугавпилс, LV-5401, Латвия

Список литературы

  1. Балтийский голос: Началось? Илон Маск призвал хотя бы на полгода остановить обучение нейросетей. 29.03.2023 // URL: https://bb.lv/statja/tehno/2023/03/29/nachalos-ilonmask-prizval-hotya-by-na-polgoda-ostanovit-obuchenie-neyrosetey?utm_source=read_also_in_article&utm_medium=insite&utm_campaign=bb.l.
  2. Балтийский голос: Италия приостановила доступ к ChatGPT из-за проблем с защитой данных. 31.03.2023 // URL: https://bb.lv/statja/tehno/2023/03/31/italiya-priostanoviladostup-k-chatgpt-iz-za-problem-s-zashchitoy-dannyh?utm_source=inbox&utm_medium=mainpage&utm_campaign=Links-in-partner-sites.
  3. Баумейстер А. Миропорядок на переломе: раскол углубляется // URL: https://www.youtube.com/watch?v=Gtafy_-b0Do.
  4. Баумейстер А., Гуревич М., Медведев С. Заменит ли чат-бот человеческий разум? // URL: https://www.youtube.com/watch?v=_SvHc9JwNF8.
  5. Воронов В.В. Малые города Латвии: неравенство в региональном и городском развитии // Балтийский регион. 2022. Т. 14. № 4.
  6. ГПТ-3, Томас И., Ван Ж. Что делает нас людьми? Искусственный интеллект отвечает на величайшие опросы человечества. М., 2023.
  7. Душкин Р.В. ИИ и междисциплинарные исследования // URL: https://www.youtube.com/watch?v=kcuYzzKKbRQ.
  8. Душкин Р.В. Искусственный интеллект. М., 2019.
  9. Земнухова Л., Глазков К., Логунова O., Максимова A., Руденко Н., Сивков Д. Приключения технологии: барьеры цифровизации в России. М.-СПб., 2020.
  10. Куда катится мир: Что с нами делает ChatGPT или как искусственный интеллект меняет нашу жизнь // URL: https://www.youtube.com/watch?v=pXZmKKGG9x0.
  11. Лебедев M. Интерфэйс мозг-компьютер, реальность и фантазии // URL: https://sk.ru/news/interfejs-mozg-kompyuter-realnost-i-fantazii.
  12. Лотман Ю.М. Мозг-текст-культура-искусственный интеллект. Противодействие Энтропии. 1992 // URL: http://www.etheroneph.com/cybernetics/114-mozg-tekst-kulturaiskusstvennyj-intellekt.html.
  13. Меньшиков В. Социологи о меняющейся социальности // Вестник социальных наук. 2020. T. 31. № 2.
  14. Меньшиков В., Комарова В. Коммуникация человека и технологии искусственного интеллекта как основа искусственной социальности: на примере коммуникации с ChatGPT // Вестник социальных наук. 2023. T. 36. № 1.
  15. Нименский А.В., Герасимов А.Д. Антиномии цифровизации и визуализации в современной массовой культуре // Вестник РУДН. Серия: Социология. 2023. Т. 23. № 4.
  16. Редакция: Ai Ai Ai // URL: https://www.youtube.com/watch?v=UyCaPx9wI8g&t=2163s.
  17. Резаев А.В., Трегубова Н.Д. От социологии алгоритмов к социальной аналитике искусственной социальности: анализ кейсов API и ChatGPT // Мониторинг общественного мнения: экономические и социальные перемены. 2023. № 3.
  18. Селицкий С. Стохастический попугай в эру искусственного интеллекта. 16.04.2023 // URL: https://lr4.lsm.lv/lv/raksts/priroda-veschey/stohasticheskiy-popugay-v-eru-iskusstvennogo-intellekta.a177615.
  19. Харари Ю.Н. ИИ и будущее человечества. Выступление на «Frontiers Forum» // URL: https://www.youtube.com/watch?v=4IB1PuGc-cE.
  20. Черниговская T.В. Естественный и искусственный интеллект // URL: https://www.youtube.com/watch?v=X9rz10vgQnQ.
  21. Черниговская T.В., Лотман Ю.М. Тайна двух полушарий. 1982 // URL: https://www.youtube.com/watch?v=vI_5XGtHA0g.
  22. Эпштейн М. Искусственный и человеческий интеллект: гуманитарный подход // Club IntLex. 2023. № 35.
  23. Эпштейн М. Искусственный интеллект против естественного: кто кого? Итоги эксперимента // URL: https://snob.ru/profile/27356/blog/3001419.
  24. Ядов В.А. Социологическое исследование: методология, программа, методы. М., 1972.
  25. Bubeck S., Chandrasekaran V., Eldan R., Gehrke J., Horvitz E., Kamar E., Lee P., Lee Y.T., Li Y., Lundberg S., Nori H., Palangi H., Ribeiro M.T., Zhang Y. Sparks of Artificial General Intelligence: Early experiments with GPT-4. Microsoft Research. 2023 // URL: https://arxiv.org/pdf/2303.12712.pdf.
  26. Cochran W. Sampling Techniques. N.Y., 1963.
  27. Daugavpils Universitātes Sociālo un humanitāro zinātņu institūts:Artificial Intelligence and Higher Education. Dataset of the Sociological Survey. Available by request: vera.komarova@du.lv.
  28. Daugavpils Universitātes Studējošo servisa centrs // URL: https://du.lv/par-mums/struktura/ studejoso-servisa-centrs.
  29. Harari Y.N. Homo Deus: A Brief History of Tomorrow. Harvill Secker, 2016.
  30. Heffernan M. Uncharted: How Uncertainty Can Power Change. L., 2021.
  31. Hofstede G., Hofstede G.J., Minkov M. Cultures and Organizations: Software of the Mind. N.Y., 2010.
  32. Hofstede G.J. Artificial Sociality: Simulating the Social Mind. 2019 // URL: https://geerthofstede.com/wp-content/uploads/2019/05/Oratieboekje_Hofstede_Artif-Sociality-2019-01-17.pdf
  33. Johnson A.G. “Ideal Type” // Blackwell Dictionary of Sociology. Wiley-Blackwell, 2000.
  34. Kim S.K., Kirchner E.A., Stefes A. Intrinsic interactive reinforcement learning - using errorrelated potentials for real world human-robot interaction // Scientific Reports. 2017. Vol. 7.
  35. Kish L. Survey Sampling. N.Y., 1965.
  36. Knorr Cetina K. Sociality with objects: Social relations in post-social knowledge societies // Theory, Culture & Society. 1997. Vol. 14. No. 4.
  37. Komarova V., Lonska J., Tumalavičius V., Krasko A. Artificial sociality in the human-machine interaction // RUDN Journal of Sociology. 2021. Vol. 21. No. 2.
  38. Kovalenko I., Meliakova Y., Kalnytskyi E., Nesterenko K. Post-panopticon: Control and media in the new digital reality // Filosofija. Sociologija. 2023. Vol. 34. No. 3.
  39. Latvijas Republikas Centrālā statistikas pārvalde (LR CSP). Tabula DLM010: Iedzīvotāji, kuri lieto datoru/internetu, 2004-2023 // URL: https://stat.gov.lv/lv/statistikas-temas/informacijas-tehn/ikt-majsaimniecibas/tabulas/dlm010-iedzivotaji-kuri-lieto?themeCode=EK.
  40. Lee H., Phatale S., Mansoor H., Lu K., Mesnard Th., Bishop C., Carbune V., Rastogi A. RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback. Preprint. 2023 // URL: https://doi.org/10.48550/arXiv.2309.00267.
  41. LTCC Online: Table of z-values for Confidence Intervals // URL: http://www.ltcconline.net/greenl/courses/201/estimation/smallConfLevelTablehtm.
  42. Luhmann N. Social Systems. Stanford, 1995.
  43. Luhmann N. The paradox of observing systems // Rasch W. (Ed.). Theories of Distinction. Redescribing the Descriptions of Modernity. Stanford, 2002.
  44. Luhmann N. Introduction to Systems Theory. Polity Press, 2013.
  45. Malsch T. (Ed.) Sozionik - Soziologische Ansichten uber kunstliche Sozialitat. Berlin, 1998.
  46. Mutanen A. Philosophy of communication: A logico-conceptual approach // Filosofija. Sociologija. 2022. Vol. 33. No. 3.
  47. Moreira I., Rivas J., Cruz F., Dazeley R., Ayala A., Fernandes B. Deep reinforcement learning with interactive feedback in a human-robot environment // Applied Sciences. 2020. Vol. 16. No. 10.
  48. Najar A., Chetouani M. Reinforcement learning with human advice: A survey // Front Robot AI. 2021. Vol. 8.
  49. OpenAI. ChatGPT // URL: https://chat.openai.com.
  50. Swedberg R. How to use Max Weber’s ideal type in sociological analysis // Journal of Classical Sociology. 2018. Vol. 18. No. 3.
  51. Trotsuk I.V. All power to the experts? Contradictions of the information society as both depending on and devaluating expertise // Russian Sociological Review. 2021. Vol. 20. No. 1.
  52. Trotsuk I.V. Excessive faith in certainty and its public proponents in the non-linear uncertain world: Reasons and … more reasons // Russian Sociological Review. 2021. Vol. 20. No. 4.
  53. Turing A. Computing machinery and intelligence // Mind. 1950. Vol. LIX. No. 236.
  54. Weber M. “Objectivity” in social science and social policy // Weber M. (Ed.). Essays in the Methodology of the Social Sciences. N.Y., 1949.
  55. Weber M. Economy and Society: An Outline of Interpretive Sociology. Berkeley, 1978.

Дополнительные файлы

Нет дополнительных файлов для отображения


© Меньшиков В., Комарова В., Болякова И., Ружа А., Ружа О., 2024

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.

Данный сайт использует cookie-файлы

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.

О куки-файлах