Искусственный интеллект и человеко-машинная коммуникация: вызов исследованиям медиатизации

Обложка

Цитировать

Полный текст

Аннотация

Развитие технологий искусственного интеллекта, включая коммуникативный ИИ, стало серьезным вызовом для исследований медиатизации. Изучаются границы применимости программы медиатизации и фигуративного подхода Андреаса Хеппа к автоматизированной (человеко-машинной) коммуникации. Автор ставит и последовательно раскрывает три вопроса: как исследования медиатизации рассматривают ИИ в качестве предмета теоретического и эмпирического анализа; каким потенциалом и ограничениями обладает фигуративный подход к человеко-машинной коммуникации; каковы возможные направления пересборки этого подхода (и программы медиатизации в целом) в эпоху коммуникативного ИИ. Критическое осмысление теории медиатизации, в частности фигуративного подхода Андреаса Хеппа, фокусируется на пяти ключевых концептах: фигурации, гибридная агентность, медиалогика, квазикоммуникация и коммуникативный ИИ. Оценивая эвристический потенциал фигуративной оптики в исследовании ИИ, автор формулирует ряд направлений ее ревизии и дальнейшего развития. Учитывая сквозной и многофункциональный характер ИИ-технологий, пронизывающих множество социальных миров и практик, анализ не должен замыкаться на отдельных фигурациях, важны также полии межфигуративные контексты. Кроме того, необходимо изучать как фигурации (социальные знания, ценности и поведенческие нормы разных сообществ и институтов) инкорпорированы в искусственных агентов, выступающих в роли (мульти) фигуративного Другого. Наконец есть основания переосмыслить понятия «гибридная фигурация» и «гибридная агентность» в контексте возрастающего влияния ИИ и «искусственных людей».

Полный текст

Введение

Искусственный интеллект становится одной из главных тем в исследовательской повестке дисциплин, связанных с медиа и коммуникациями (Guzman, Lewis, 2020). Рассмотрим, как ИИ встраивается в область исследований медиатизации, в какой мере существующие подходы позволяют концептуализировать этот феномен. Особое внимание будет уделено перспективам и ограничениям фигуративной теории медиатизации, активно развиваемой Андреасом Хеппом и его соавторами (Couldry, Hepp, 2016; Hepp, 2020; Hepp, Loosen et al., 2023).

За прошедшую четверть века исследования медиатизации претерпели определенную модификацию, при этом сохраняя ряд опорных положений:

1) понимание медиатизации как долгосрочного трансформативного эффекта, наблюдаемого в разных сферах социальной жизни по мере их «насыщения» медиа;

2) отказ от медиацентризма и перенос предметного фокуса на социальные миры с их коммуникативными практиками;

3) утверждение нелинейного, многовариантного характера медиатизации как одного из глобальных метапроцессов современности (Hepp, 2020).

За это время также сформировались три основных взаимодополняющих подхода к изучению медиатизации: институциональный, социально-конструктивистский и материалистский. Ключевое различие между ними обусловлено тем, теоретизируются ли медиа в качестве институтов (организаций), символических сред (знаковых систем) или технологий (Bolin, 2024, p. 70).

Институциональный подход возник в доцифровую эпоху и изначально рассматривал как «немедийные» социальные институты (например, политика или спорт) адаптируются к «медиалогике» – правилам, форматам и организационным ритмам института массмедиа (Hjarvard, 2013). С появлением интернета многие организации сами стали медиа, поскольку производят собственный контент. Медиатизация социальных институтов проявилась не только в медийном (само)представлении внешнему миру, но и в глубокой трансформации (дигитализации, автоматизации) их внутренних процессов. Социальный конструктивизм (включая теорию фигураций) также направлен на понимание изменений, происходящих с обществом и культурой вместе с развитием медиа. Здесь отсчет медиатизации начинается гораздо раньше – если не с наскального рисунка, то с изобретения печатного станка. Медиа понимаются как символические среды, чья эволюция определяется сменой главного технологического принципа (через «волны» механизации, электрификации, дигитализации и датафикации) (Couldry, Hepp, 2016). Социальный мир же предстает множеством «фигураций» различных уровней, имеющих свои «медиаансамбли», которые поддерживают и преобразуют коммуникативные практики социальных акторов. Понятие «медиалогика» этим подходом критикуется по двум причинам: невозможности единой медиалогики в условиях огромного разнообразия медиа, а также имплицитного наделения медиа властью структурировать человеческие действия определенным образом. В отличие от социально-конструктивистской перспективы, где агентностью обладают только люди, материалистский подход акцентирует роль медиа как агентных технологий через обращение к понятиям аффордансов, латуровских актантов или радикальную оптику нового материализма (Berger, 2023). Хотя технологический подход считался скорее периферийным или дополняющим мейнстримные институциональные и культуралистские перспективы медиатизации, сегодня признается необходимость его более полноценной интеграции в это исследовательское поле (Bolin, 2024).

Развитие ИИ-технологий, в том числе «коммуникативного ИИ», стало серьезным вызовом для исследований медиатизации. В статье мы попытаемся ответить на следующие три вопроса: как исследования медиатизации «присваивают» ИИ в качестве предмета теоретизирования и эмпирического изучения; каким потенциалом и ограничениями обладает фигуративный подход к человеко-машинной коммуникации; каковы возможные направления пересборки этого подхода (и программы медиатизации в целом) в эпоху коммуникативного ИИ.

Материалы и методы

Изучаются границы применимости исследовательской программы медиатизации и фигуративного подхода Андреаса Хеппа к автоматизированной (человеко-машинной) коммуникации. Андреас Хепп – один из ведущих теоретиков медиатизации, а его фигуративная социология (версия социального конструктивизма) претендует на влиятельную перспективу, интегрирующую и другие концепции медиатизации. Наш анализ задействует жанр критической ревизии, основанный на проблематизации уязвимых мест теории и экспликации альтернатив. Оценивая эвристический потенциал программы медиатизации в осмыслении ИИ, мы принимаем во внимание «постдисциплинарный» характер исследований (медиа)коммуникации (Waisbord, 2019). Это означает, что ключевые понятия и принципы исследований медиатизации в определенной мере контекстуальны и «флюидны». Концептуально статья является ответом на специальный выпуск журнала Human-Machine Communication, посвященный медиатизации (2024). Здесь и в более ранних публикациях представлены как общие принципы исследования коммуникативного ИИ в оптике медиатизации (Bolin, 2024; Hepp, Bolin et al., 2024; Hepp, Loosen et al., 2023; Natale, Depounti, 2024), так и отдельные эмпирические кейсы (Fortunati et al., 2024; Mascheroni, 2024). Эта коллекция работ служит отправной точкой для понимания и (пере)формирования программного видения ИИ в контексте медиатизации.

Результаты и обсуждение

Феномен коммуникативного ИИ

Обращение к проблематике ИИ в исследованиях медиатизации вполне закономерно: еще в 2016 г. Хепп и Коулдри связали феномен «глубокой медиатизации» с развитием интернета, мобильных телефонов, компьютеров и машинного интеллекта (computer-based ‘intelligence’) (Couldry, Hepp, 2016, р. 40). В опубликованной в 2020 г. фундаментальной книге «Глубокая медиатизация» Андреас Хепп еще раз акцентирует, что «это стадия медиатизации, на которой анализ алгоритмов, данных и искусственного интеллекта становится решающим для нашего понимания социального мира (Hepp, 2020, p. 7). Здесь же он вводит тему автоматизации коммуникации, понятие «коммуникативный робот» (Ibid, pp. 77–82). Последнее описывает (частично) автоматизированные медиа, которые оперируют автономно (чаще на основе ИИ) в целях «квазикоммуникации» с людьми, реализуя различные алгоритмизированные функции. В категорию «коммуникативных роботов» были включены искусственные компаньоны (такие как Alexa от Amazon или Siri от Apple), социальные боты (автоматизированные аккаунты в социальных медиа, выдающие себя за человека) и рабочие боты, используемые для автоматизации труда (например, роботизации журналистики). Сегодня эта категория пополнилась нейросетями, в том числе большими языковыми моделями (LLM), позволяющими генерировать искусственные тексты, изображения, музыку и видео широкому кругу пользователей на основе речевых запросов (ChatGPT, Gemini, DeepSeek, Claude, MidJourney, Dall-E, Sora и др.). Социальные ИИ-компаньоны типа Replika и виртуальные инфлюенсеры также могут быть причислены к этой разновидности ИИ (Natale, Depounti, 2024).

Подобные технологии автоматизированной коммуникации исследователи (Guzman, Lewis, 2020) называют коммуникативным ИИ. Этот тип ИИ имеет три базовых характеристики:

1) основан на различных формах автоматизации и предназначен для коммуникации;

2) встроен в цифровые инфраструктуры;

3) «запутан» с человеческими практиками (Hepp, Loosen et al., 2023, p. 48). Понятие коммуникативного ИИ требует, однако, прояснения того, как понимаются искусственный интеллект, а также коммуникации и агентность в контексте автоматизации.

Учитывая довольно неопределенную природу ИИ, теоретики медиатизации склонны избегать его точной дефиниции, считая более продуктивным подход Елены Эспозито: важно не то, способна ли машина думать, а то, что она способна коммуницировать (Esposito, 2017, p. 250). При этом признается, что коммуникативный ИИ – не медиа (хотя инфраструктурно связан с цифровой средой). Поэтому ИИ нужно рассматривать скорее не как канал (традиционного для медиаисследований «посредника»), а в качестве коммуникатора. Однако статус этой искусственной коммуникации концептуализируется по-разному: в частности, с привлечением двух известных подходов, трансмиссионного и ритуального (Bolin, 2024, pр. 70–71). Если мы понимаем коммуникацию как технический процесс передачи сообщения («трансмиссию»), то ИИ-участник может быть «приравнен» человеку, если как семиотический обмен – то это, по выражению Хеппа, «квазикоммуникация», где люди проецируют свои социальные ожидания и представления на ИИ (Hepp, 2020, p. 78). Его соавторы по специальному номеру в HMC Симон Натале и Илиана Депунти развивают сходный с «квазикоммуникацией» концепт «искусственной социальности», описывающий технологии и практики, которые создают лишь видимость социального поведения ИИ (Natale, Depounti, 2024). В то же время Йоран Болин (соредактор выпуска) призывает не проводить резких различий между человеческой и человеко-машинной коммуникацией, поскольку даже люди в определенных социальных контекстах общаются друг с другом «инструментально», подобно ботам (Bolin, 2024, pp. 73–74).

Что касается агентности, позиция Хеппа претерпела мало изменений: как и в случае цифровых медиа, ИИ ей не наделен, это привилегия человеческих акторов. Однако он и его коллеги используют изящный ход, вводя понятие «гибридная агентность» применительно к фигурациям (организациям, сообществам), объединяющим людей и ИИ (Hepp, Loosen et al., 2023, p. 51). Такая «гибридная фигурация» рассматривается как коллективный (надиндивидуальный) актор, причем свойство гибридной агентности атрибутируется всему объединению в целом. Как видите, речь не идет о «распределенной» агентности, здесь важен момент внутренней или внешней перспективы. В цитируемой статье приводится пример редакции, использующей систему автоматизации новостей. Если смотреть на эту редакцию (как фигурацию) изнутри, границы между людьми и ИИ остаются реальными, хотя люди и проецируют на ИИ социальные атрибуты. Одновременно взгляд извне позволяет увидеть, что такой актор, как «роботизированная редакция», обладает иной, гибридной агентностью, отличающей ее от «традиционных редакций». Хотя это решение позволяет избежать крайностей дуализма в вопросе об агентности ИИ, у него есть свои ограничения. Далее мы обсудим эти и другие проблемные зоны фигуративного подхода в исследованиях человеко-машинной коммуникации.

ИИ-коммуникации в фигуративной оптике: ограничения подхода

Наше критическое осмысление теории медиатизации, в частности фигуративного подхода Андреаса Хеппа, будет сфокусировано на пяти ключевых концептах: фигурации, гибридная агентность, медиалогика, квазикоммуникация и коммуникативный ИИ. Кратко обозначим основные уязвимости этих понятий, надеясь расширить приведенные аргументы.

Фигурации. Хепп и соавторы развивают свою версию фигуративной социологии, адаптируя понятие фигурации немецкого социолога Норберта Элиаса (Elias, 1978). По сути, фигурации – это классические «социальные тела» (коллективы и сообщества), но рассматриваемые процессуально, то есть существующие только во взаимодействии людей. Любая фигурация (семья, университет, фан-комьюнити) являет собой сеть индивидуальных акторов, включенных в релевантные социальные практики. В условиях глубокой медиатизации все практики «запутаны» с медиа, поэтому нужно исследовать, как фигурации поддерживаются, конструируются и изменяются посредством присущих им «медиаансамблей» (Hepp, 2020, pp. 103–105). Новизна этого подхода для социальных и медиаисследований первоначально заключалась в том, чтобы сместить фокус с самих медиа (как института, технологии, контента и среды) на анализ медиатизированных социальных миров. В остальном понятие фигураций привносит не так много нового в социальную теорию. От «процессуальности» фигураций мало что остается, когда они одновременно мыслятся как коллективные «надиндивидуальные» акторы: подобные формулировки скорее стабилизируют их в качестве социальных структур. Более того, жесткая привязка к фигурациям как «входной точке» исследования может препятствовать иному взгляду на процессы медиатизации. Например, мультифункциональные платформы (такие как китайский WeChat) фактически становятся единой цифровой средой, где люди «живут» в режиме постоянного переключения между множеством фигураций (покупки, развлечения, работа, заключение браков, получение госуслуг и т.д.). Такие платформы, как и другие технологии (включая ИИ), становятся общими и сквозными для множества социальных практик и миров, и это обстоятельство требует особого внимания. Замыкание анализа на какой-то одной фигурации порой ограничивает возможности самого фигуративного подхода.

Гибридная агентность. Как уже было упомянуто, «гибридная агентность» в версии Хеппа присуща лишь фигурациям как коллективным акторам, где люди взаимодействуют с ИИ, то есть в индивидуальной перспективе «человек-машина» понятие гибридной агентности не работает: формально это не фигурация (даже если ИИ выступает в неких социальных ролях – как научный консультант, романтический партнер, психотерапевт и т.д.). Хепп считает анализ прямой коммуникации человека и машины тупиковым, призывая изучать взаимодействие людей и ИИ в более широких фигуративных контекстах, например, как в исследовании Джованны Маскерони о семьях с маленькими детьми, использующих умные колонки (Mascheroni, 2024). Однако это прямое человеко-машинное взаимодействие все же не находится в «безвоздушном» пространстве вне фигураций. Прежде всего, разговорные агенты – продукт технологических компаний, и пользователь остается связан с ними экономически и инфраструктурно. Далее в этот продукт инкорпорирована социальность: моделируемые роли научного консультанта, любовника или психотерапевта укоренены в соответствующих социальных практиках и институтах (аспирантура, любовная пара, клиника). В некотором смысле коммуникативный ИИ, выступающий в одной их этих ролей, – это «обобщенный фигуративный Другой». Эти рассуждения снова ставят вопросы о том, как могут пониматься фигурации и агентность в «сцепке» с ИИ.

Медиалогика. Хотя понятие медиалогики в любых трактовках (Hepp, 2020, pp. 59–61) критикуется приверженцами фигуративного подхода, эта критика может быть оспорена (Nim, 2021), особенно в дискуссии об ИИ. Во-первых, здесь можно говорить о машинной или человеко-машинной логике (алгоритмической, но имитирующей человеческую), которая и позволяет обучаемым ИИ-системам решать различные задачи, как это сделал бы человек. Во-вторых, проблема этой машинной логики в том, что целиком она необъяснима даже для разработчиков ИИ: архитектура принятия решений генеративными или иными ИИ сложна и непрозрачна. И это побуждает пользователей реконструировать и интерпретировать алгоритмическую логику, создавая интуитивные, «народные» теории (folk theories) ИИ (Ytre-Arne, Moe, 2020). Народные теории дают (воображаемые) причинно-следственные объяснения алгоритмов и ИИ-систем, рационализируя повседневный пользовательский опыт взаимодействия с ними. Поэтому даже если отрицать феномен «машинной логики» (как аналогии или разновидности медиалогики), она является интуитивным концептом, опосредующим человеко-машинные коммуникации. Иначе говоря, важно скорее то, что медиалогика существует «в головах» людей, и акторы руководствуются ею в своих медиапрактиках. Таким образом, переосмысленное применительно к ИИ понятие медиалогики, напротив, открывает богатые перспективы для исследований адаптации людей к ИИ в контексте разных фигураций.

Квазикоммуникация. Как отмечалось выше, сторонники фигуративного подхода считают коммуникацию между ИИ и человеком квазикоммуникаций, поскольку здесь не происходит двустороннего обмена смыслами и чувствами. Люди сами приписывают ИИ способность коммуницировать и наделяют ИИ-агентов человеческими свойствами (отсюда риторика «обмана», «видимости» и «проекций»). Кроме того, ИИ-агенты полностью не автономны. На наш взгляд, понятие квазикоммуникации близко концепту односторонних «парасоциальных отношений» (Horton, Wohl, 1956), отражающему воображаемую личную связь фанатов с реальными медиаперсонами или вымышленными персонажами (героями фильмов, книг, видеоигр, а также виртуальными инфлюенсерами). Примечательно, что понятие «парасоциальные отношения» не делает особенных различий между людьми и медиа как объектом проецирования чувств. К тому же «парасоциальность» этих отношений может оспариваться: «реальные» социальные отношения не менее «воображаемы» и проективны, а фанатская «иллюзорная» связь с кумиром порождает фан-сообщества, где люди разделяют эту любовь друг с другом (Hills, 2015). Более того, с позиций феноменологии, онтологический статус коммуникации с ИИ-агентом не принципиален: если неважно, умеет ли машина думать, также неважно, может ли она коммуницировать без приставки «квази».

Коммуникативный ИИ. Отдельная проблема – само понятие коммуникативного ИИ, которое прежде всего включает искусственных агентов, способных коммуницировать на естественном языке. Фокус здесь смещается к персонифицированным «говорящим» ИИ-системам с эффектом антропоморфности. Заметим, что общий термин «коммуникативный ИИ» звучит достаточно консервативно: в нем мало коннотаций человечности. В то же время, например, влиятельный журнал Computers in Human Behavior: Artificial Humans называет этот класс ИИ «искусственными людьми». Вероятно, выбор того или иного термина отчасти отражает желание исследователей наделить ИИ определенной степенью агентности и человекоподобия. Понятие «коммуникативный ИИ» при этом не включает «платформенный» ИИ, хотя (само)обучаемые алгоритмы модерации и цензуры социальных медиа также являются агентами коммуникации. «ИИ-гейткипер» может сам не генерировать речь, но способен распознавать, блокировать и регулировать речь других. К тому же платформенные алгоритмы непрерывно эволюционируют. ИИ подобен невидимому электричеству, он будет вскоре, вероятно, пронизывать все коммуникативные среды. Как отмечает сам Андреас Хепп, понятие коммуникативного ИИ имеет «сенсибилизирующий» характер (Hepp, Loosen et al., 2023, p. 49), поэтому важно, чтобы оно было открытым для расширения и реинтерпретации.

Заключение

Выявленные уязвимости фигуративного подхода к исследованию коммуникативного ИИ, конечно же, не означают, что эта оптика непродуктивна. При том, что теория коммуникативных фигураций Андреаса Хеппа имеет уже сложившееся «твердое ядро», формирующие его понятия и принципы достаточно пластичны и адаптивны. На наш взгляд, этот подход, как и исследовательская программа медиатизации в целом, способны справиться с искусственным интеллектом как объектом теоретизирования и эмпирического изучения. Возможно, это будет получаться еще лучше, если (фигуративная) перспектива медиатизации будет дополнена и пересобрана в определенных направлениях.

Во-первых, точкой входа или сборки для исследований медиатизации могут быть не только сами фигурации, хотя на первый взгляд, это и есть кредо фигуративного подхода. Привязка к конкретным фигурациям как сообществам с определенным «медиаансамблем», вплетенным в базовые практики членов этих фигураций, не так критична. Исследование может фокусироваться на технологиях, практиках, местах, событиях или дискурсах, а фигурации выступать изменчивой средой. В одной из своих публикаций, посвященной феномену селф-трекинга, Хепп и Герхард (2018) уже приблизились к такому пониманию. Они рассматривали селф-трекинг (цифровой самоконтроль) в трех контекстах: первичных практик, частью которых становится селф-трекинг (ходьба, питание, спорт, работа); фигураций (семья, друзья, коллеги, онлайн-окружение) и доминирующих в обществе «Я»-дискурсов. В ряде случаев связь с «ближними» фигурациями была слаба, но значимую роль играл общий неолиберальный дискурс «заботы о себе».

Во-вторых, анализ не должен замыкаться только на отдельных фигурациях, особое внимание нужно уделять поли- или межфигуративным контекстам. Это связано со сквозным и многофункциональным характером современных технологий, пронизывающих и преобразующих множество фигураций и социальных практик. Мы уже упоминали мегаплатформы типа WeChat, которые пытаются тотально охватить все сферы социальной жизни, агрегируя в себе огромное число сервисов и приложений. Фигурации здесь «дискретно» возникают и исчезают в модусе постоянного переключения: деловая встреча сменяется шопингом, тренировкой, медицинской консультацией или свиданием. Фигуративные контексты накладываются, совмещаются или следуют друг за другом, при этом человек все это время остается в цифровом устройстве. Коммуникативный ИИ обладает еще большими возможностями для смены социальных декораций и ролей, условный ChatGPT с легкостью меняет их в течение одного сеанса.

В-третьих, фигурации можно найти не только «снаружи», но и «внутри» ИИ-агентов. Проблематика «искусственной социальности» не сводится к разоблачению видимости социального в машинах, важнее выяснить, как это социальное моделируется. Социальные миры (сообщества) с их знаниями, ценностями, поведенческими паттернами «вложены» в искусственных агентов, выступающих «от имени» этих фигураций. Такие генеративные ИИ как ChatGPT представляют собой своего рода искусственного (мульти)фигуративного Другого. Исследования ответов ChatGPT и его аналогов (теперь нередко заменяющих «Википедию» или Google) раскрывают, как структурированы машинные знания о социальном, в свою очередь влияющие на конструирование этого социального (см., например: Tsuria R., Tsuria Y., 2024). ИИ-агенты социализированы сами и социализируют нас. Они «собирают» мир из данных и цифровых следов в машинной логике, которая не до конца ясна и пробуждает к жизни «народные теории».

В-четвертых, есть основания оспаривать, что человек и ИИ-агент(ы) не составляют (гибридную) фигурацию, и здесь нет места для фигуративного подхода. ИИ играет роли человеческих акторов, релевантные для тех или иных сообществ (фигураций). Насколько хороша эта игра, подлинна ли эта коммуникация, в какой мере ИИ агентен – эти вопросы скорее вторичны в перспективе социального конструктивизма. Более того, с развитием и распространением метаверсов (синтетических иммерсивных сред) и виртуальных личностей они будут все менее актуальны. В такой «расширенной реальности» (Kalpokas, 2020) коммуникации между аватарами-людьми и аватарами-ИИ станут практически неразличимы. Возникнет сложная проблема перехода к «аффективному критерию реальности», когда реальность артефакта или среды будет прямо определяться силой их (чувственного) воздействия. Сейчас мы дискутируем о том, являются ли человек и ИИ фигурацией, но возможно вскоре «искусственные люди» начнут образовывать свои сообщества и пространства, и наступит время «постфигураций». Чтобы справиться с такими вызовами, исследования медиатизации, включая фигуративную теорию, должны быть максимально адаптивными и открытыми для новых тем, концептов и интерпретаций.

×

Об авторах

Евгения Генриевна Ним

Национальный исследовательский университет «Высшая школа экономики»

Автор, ответственный за переписку.
Email: nimeg@mail.ru
ORCID iD: 0000-0001-7349-9429
SPIN-код: 3280-9452

кандидат социологических наук, доцент, Институт медиа

Российская Федерация, 101000, Москва, ул. Мясницкая, д. 20

Список литературы

  1. Berger, V. (2023). Mediatized Love: A Materialist Phenomenology of Tinder. Social Media + Society, 9(4), 1–15. https://doi.org/10.1177/20563051231216922
  2. Bolin, G. (2024). Communicative AI and techno-semiotic mediatization: Understanding the communicative role of the machine. Human-Machine Communication, 7, 65–81. https://doi.org/10.30658/hmc.7.4
  3. Couldry, N., & Hepp, A. (2016). The Mediated Construction of Reality. Cambridge, UK; Malden, MA: Polity Press.
  4. Elias, N. (1978). What Is Sociology? Columbia University Press.
  5. Esposito, E. (2017). Artificial communication? The production of contingency by algorithms. Zeitschrift für Soziologie, 46(4), 249–265. https://doi.org/10.1515/zfsoz-2017-1014
  6. Fortunati, L., Edwards, A., & Edwards, Ch. (2024). The perturbing mediatization of Voice-based virtual assistants: The case of Alexa. Human-Machine Communication, 7, 99–119. https://doi.org/10.30658/hmc.7.6
  7. Gerhard U., & Hepp A. (2018). Appropriating Digital Traces of Self-Quantification: Contextualizing Pragmatic and Enthusiast Self-Trackers. International Journal of Communication, 12, 683–700.
  8. Guzman, A.L., & Lewis, S.C. (2020). Artificial intelligence and communication: A human-machine communication research agenda. New Media & Society, 22(1), 70–86. https://doi.org/10.1177/1461444819858691
  9. Hepp, A. (2020). Deep Mediatization. London and New York, Routledge.
  10. Hepp, A., Bolin, G., Guzman, A., & Loosen, W. (2024). Mediatization and human-machine communication: Trajectories, discussions, perspectives. Human-Machine Communication, 7, 7–21. https://doi.org/10.30658/hmc.7.1
  11. Hepp, A., Loosen, W., Dreyer, S., Jarke, J., Kannengießer, S., Katzenbach, Ch., Malaka, R., Pfadenhauer, M., Puschmann, C., & Schulz, W. (2023). ChatGPT, LaMDA, and the hype around communicative AI: The automation of communication as a field of research in media and communication studies. Human-Machine Communication, 6, 41–63. https://doi.org/10.30658/hmc.6.4
  12. Hills, M. (2016). From para-social to multisocial interaction: theorizing material/digital fandom and celebrity. In P.D. Marshall, & S. Redmond (Eds.), A Companion to Celebrity (pp. 463–482). Wiley-Blacwell. https://doi.org/10.1002/9781118475089.ch25
  13. Hjarvard, S. (2013). The Mediatization of Culture and Society. Routledge.
  14. Horton, D., & Wohl, R.R. (1956). Mass communication and para-social interaction: Observations on intimacy at a distance. Psychiatry, 19(3), 215–229. https://doi.org/10.1080/00332747.1956.11023049
  15. Kalpokas, I. (2020). Problematising reality: The promises and perils of synthetic media. SN Social Sciences, 1(1), 1–11. https://doi.org/10.1007/s43545-020-00010-8
  16. Mascheroni, G. (2024). A new family member or just another digital interface? Smart speakers in the lives of families with young children. Human-Machine Communication, 7, 45–63. https://doi.org/10.30658/hmc.7.3
  17. Natale, S., & Depounti, I. (2024). Artificial sociality. Human-Machine Communication, 7, 83–98. https://doi.org/10.30658/hmc.7.5
  18. Nim, E.G. (2021). Deep mediatization: rethinking a figurational approach. RUDN Journal of Studies in Literature and Journalism, 26(4), 664–671. https://doi.org/10.22363/2312-9220-2021-26-4-664-671
  19. Tsuria, R., & Tsuria, Y. (2024). Artificial intelligence’s understanding of religion: Investigating the moralistic approaches presented by generative artificial intelligence tools. Religions, 15(3), 375. https://doi.org/10.3390/rel15030375
  20. Waisbord, S. (2019). Communication: A Post-Discipline. John Wiley & Sons.
  21. Ytre-Arne, B., & Moe, H. (2020). Folk theories of algorithms: Understanding digital irritation. Media, Culture & Society, 43(5), 807–824. https://doi.org/10.1177/0163443720972314

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Ним Е.Г., 2025

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial 4.0 International License.