Table of Contents | Содержание

Artificial Intelligence: Metaphysics of Philistine Discourses

Artur A. Dydrov1 (a), Sophia V. Tikhonova (b) & Irina V. Baturina2 (a)

(a) South Ural State University. Chelyabinsk, Russia
(b) Saratov State University. Saratov, Russia. Email: segedasv[at]yandex.ru
Received: 16 July 2022 | Revised: 11 September 2022 | Accepted: 30 September 2022

Abstract

The article forms a matrix of the main propositions and markers of artificial intelligence in non-professional (philistine) discourses. The study is implemented on the Internet using special tools. The subject of the analysis is the search queries in the main ‘Google’ and ‘Yandex’ services, thematic communities, social networks and users’ comments. The definition of the matrix of non-professional stereotypical labeling of artificial intelligence as an actual developing technology allows us to see a picture of a new metaphysics. “Technological” metaphysics is inextricably linked with mythological thinking and significantly affects the absorption of scientific and technological developments. It also influences the constructive critical attitude towards the physical condition. The article substantiates that this modern technical mythology, which includes many speculative assumptions, has a double meaning: on the one hand, it “domesticates” technology, and on the other hand, it creates an insurmountable barrier for the convergence of spiritual and religious scope and the scientific worldview. The definition and subsequent refinement of the mythological matrix is necessary for the effective implementation of innovative programs, adjustment of those to the education system, constructive dialogue between the state, scientists, and users.

Keywords

Artificial Intelligence; Technology; Metaphysics; Philistine Discourse; “Industry 4.0”; Markers; Mythological Matrix; Microtrends; Search Queries; Social Network

__________

1Email: zenonstoik[at]mail.ru
2Email: devizzina[at]mail.ru


Искусственный интеллект: метафизика обывательских дискурсов

Дыдров Артур Александрович1 (a), Тихонова Софья Владимировна (b), Батурина Ирина Валерьевна2 (a)

(a) Южно-Уральский государственный университет. Челябинск, Россия
(b) Саратовский государственный университет. Саратов, Россия. Email: segedasv[at]yandex.ru
Рукопись получена: 16 июля 2022 | Пересмотрена: 11 сентября 2022 | Принята: 30 сентября 2022

Аннотация

В статье сформирована матрица основных пропозиций и маркеров искусственного интеллекта в непрофессиональных (обывательских) дискурсах. Исследование реализовано средствами контент-анализа данных Интернет с использованием специального инструментария. Предметом анализа являются поисковые запросы в Интернет-сервисах “Google” и “Yandex”, тематические сообщества социальных сетей и пользовательские комментарии. Определение матрицы непрофессиональной стереотипической маркировки искусственного интеллекта как актуальной развивающейся технологии позволяет увидеть картину новой метафизики. «Технологическая» метафизика, неразрывно связанная с мифомышлением, существенно затрудняет как абсорбцию научно-технологических разработок, так и конструктивное критическое отношение к научным данным. В статье обосновывается, что этот современный пласт мифологической культуры, состоящий из множества спекулятивных пропозиций, имеет двоякое значение: с одной стороны, он «одомашнивает» технологию, а с другой – создает труднопреодолимый барьер для сближения духовно-религиозных ценностей и научного мировоззрения. Определение и последующее уточнение мифологической матрицы необходимо для эффективной реализации инновационных программ, корректировки системы образования, конструктивного диалога между государством, учеными и потребителями.

Ключевые слова

искусственный интеллект; технология; метафизика; обывательский дискурс; «Индустрия 4.0»; маркеры; мифологическая матрица; микротренды; поисковые запросы; социальная сеть

__________

1Email: zenonstoik[at]mail.ru
2Email: devizzina[at]mail.ru


Введение

Распространение объектно-ориентированной онтологии и постулатов спекулятивного реализма в теоретическом философском дискурсе перестраивает представления о природе искусственного интеллекта (далее AI). Идеи о природе AI, укорененные в рефлексии современных представителей трансгуманизма, опираются на интенцию о его потенциальной субъектности, равной человеческой. Переход на позиции плоских онтологий равнозначен открытию широких перспектив в работе с его объектностью, понимаемой как актантность и агентность, и не предполагающей апелляции к конструированию квазимоделей субъективности и субъективизма AI. Такая доктринальная блокировка антропоморфизма расчеловечивает AI в философском дискурсе. Однако «бытовая» мифология по-прежнему продолжает эксплуатацию образов AI, акцентирующих его природу, альтернативную человеческой, способную на радикальную экспансию, вытесняющую человека из техносферы. Эта линия предполагает возможность формирования квазирелигиозных представлений об AI, его персонализацию и связанную с ней стратегию установления социальных связей, система ожиданий которых выстроена антропоморфно.

В рамках данной статьи мы попытаемся применить методологию цифровой гуманитаристики, предназначенную для изучения цифрового общественного мнения, для выявления коннотаций обывательского дискурса, сопряженных с темой AI, и оценки их роли в структуре современной религиозности.

История любой масштабной интегральной технологии, встроенной в различные сферы общества и непосредственно влияющей на уклад жизни человека, конституируется не только изобретательскими практиками и соответствующим научно-инженерным дискурсом, но и реакцией публики, потенциальных или фактических потребителей и сторонних наблюдателей. Публика определенным образом осваивает технологию и в том числе формирует дискурсивную надстройку, существующую в виде полимерных коннотативных систем. Надстроечные семиотические конструкции де-факто интегральны и состоят из научных данных, неприкрытых эмоциональных реакций, стереотипов и распространенных мнений, ссылок на авторитеты, апелляций к традициям и т. д. Доместизация технологии исторически осуществлялась путем смешения собственно технологического и изобретательского дискурса с дискурсами искусства, философии, права, политики, религии. Коннотативные конструкции выражены вербальными и невербальными средствами, приобретающими с течением времени устойчивые формы, и проходят своеобразную «натурализацию» (Барт), превращаясь в «естественные» смысловые кластеры, фигуры речи и мысли. «Индустрия 4.0», цементирующаяся развитием и массовизацией инфотехнологий, не является исключением: трендовые технологии новой промышленной революции и, в особенности, искусственный интеллект замкнуты в различных дискурсивных напластованиях, от научно-объективистского и юридического до художественных миров sci-fi и обывательских мнений. Пока исследовательские коллективы обсуждают технологические решения, проблему правосубъектности искусственного интеллекта (Шестак & Волеводз, 2019), или фокусируют внимание на прикладных аспектах применения технологии (Deng at al. 2020), у обывательского дискурса формируется своя устойчивая маркировка технологии, в значительной степени суверенная по отношению к научным результатам. Аналитика общественного мнения и частотной маркировки искусственного интеллекта является в известной мере самостоятельным направлением исследования, связанным с общим контекстом социальной и антропологической абсорбции новых технологий.

Методы

Методологически изучение мнений, выраженных в устойчивой и частотной маркировке, обосновывается рядом факторов: демонументализацией социальных и гуманитарных наук, вниманием к микротрендам, фокусировкой научно-исследовательских практик на повседневности и другими. Экспертные группы, занимающиеся проблематикой внедрения искусственного интеллекта в образовательную среду, применяют сопутствующие традиционные социологические методы (опрос, анкетирование) для определения настроений рядовых пользователей, зачастую не обладающих технологическими компетенциями в сфере AI. Опубликованная в 2020 г. статья А. А. Максименко и Л. Н. Духаниной содержит результирующие показатели масштабного анкетирования, выявляющего отношение россиян к искусственному интеллекту (Dukhanina & Maximenko, 2020). Согласно итогам, более 88% респондентов считают, что развитие AI необходимо контролировать (в том числе при помощи административного ресурса). На вопрос, что необходимо предпринять для повышения адаптивности в условиях рынка труда, популярные ответы сводились к необходимости непрерывного обучения и повышения квалификации в сфере IT (Dukhanina & Maximenko, 2020, p. 30). Варианты с цифровой грамотностью, рециклингом, биотехнологиями, проектированием «умной среды» и наноматериалов, робототехникой доминируют на результирующих анкетирование диаграммах. Не сомневаясь в достоверности зафиксированных данных, следует учитывать и альтернативную методологию работы с контентом. Аналитика мнений, произведенная средствами традиционных социологических методов, может содержать ряд погрешностей: в частности, вопросы анкеты были квалифицированы как закрытые с возможностью фиксации респондентом собственного ответа. Популярность обозначенных технологий и направлений технологического развития может быть обусловлена изначальной интегрированностью в анкету соответствующих вариантов. По существу, анкета позволила выявить мнения рядовых пользователей в заранее заданных границах спектра.

Выявление лавинообразных дискурсивных практик, в частности, выраженных частотной маркировкой технологии рядовыми пользователями, сегодня представляется затруднительным без обращения к сетевому контенту, содержащему эту маркировку во всех известных информационных кластерах (социальные сети, форумы и чаты, блоги и т. д.). Следует учитывать и то обстоятельство, что аналитика общественного мнения существенно обогащается за счет обращения к поисковым запросам. Оценка последнего возможна благодаря программно-техническому инструментарию. Спектр инструментов уже доступен любому российскому аналитику: Google Trends, Wordstat (сервис корпорации «Яндекс»). Сервис “Google” позволяет анализировать поисковые запросы на мировом, региональном и субрегиональном уровнях за период с 2004 г. по настоящее время. Wordstat, в свою очередь, квалифицируется как бизнес-инструмент, однако включает в себя историю запросов с 2019 г. по России и регионам. Исследование методологически опирается на междисциплинарные труды, обобщающие научный поиск на стыке социально-гуманитарных наук и Data Science. В частности, это касается изучения локализации расизма на территории Соединенных Штатов Америки коллективом ученых (Chae at al., 2018; Stephens-Davidowitz, 2018). Авторы доказывают, что антидискриминационная риторика общественных деятелей и обывателей сосуществует без видимых острых противоречий с традиционными расистскими взглядами белокожего населения Штатов. Аналитика поисковых запросов с помощью специализированных сервисов Google позволила увидеть расистские настроения, скрытые в пространстве публичности за общеизвестными риторическими фигурами. Те же инструменты доказывают свою эффективность и в других источниках (Stephens-Davidowitz, 2017).

Обозначенные инструменты применяются в мировой академической практике уже более пяти лет и не только позволяют собирать эмпирический материал, обслуживая количественные показатели научных изысканий, но и видеть предмет в различных ракурсах, не всегда доступных традиционным специальным и общенаучным методам. Метод контент-анализа применялся в координации с аналитикой поисковых запросов. Особое значение в контексте функционирования дискурсивных практик имеют социальные сети как пространства коммуникации с заданной структурацией (сервисы, сообщества, публичные страницы) и технически обеспечивающие возможность для потенциально бесконечного числа сообщений в каждом из основных структурных элементов. В статье базисными технически и социально детерминированными структурными единицами называются сообщества и публичные страницы, задающие общую тематику и ее аспекты. Производился анализ вербальных сообщений преимущественно фразового интервала, небольших сверхфразовых комплексов.

Результаты

Согласно устоявшемуся мнению, любая масштабная технология с необходимостью воздействует на все без исключения сферы жизни. Разумеется, сфера духовных практик и мировоззрения человека не является исключением: влияние технологий на мировоззрение и очевидно, и одновременно не фиксируется определенно никакими научно-исследовательскими метриками. В ряде зарубежных и российских публикаций настойчиво воспроизводятся семантически родственные суждения: технологии AI катализируют интенсивность возникновения новых религиозных движений; вопрос о статусе машин как новых разумных существ не может не привлечь внимание религиоведов и религиозных деятелей (Singler, 2017); абсорбция технологии неизбежно выводит на авансцену этическую проблематику, которая будет решаться в пространстве светского и религиозного дискурсов (Reed, 2021); новая волна робототехники и разработки искусственного интеллекта открывает новые горизонты для исследований, в том числе, религиоведческих (Kimura, 2017). В ответах на вопрос о возможности координации религии и технологии AI единого мнения нет. Наряду с умеренно-критическими суждениями выделяются как оптимистические, так и пессимистические сценарии: согласно первым, религия может стать духовным фундаментом технологии и будет ориентировать технологические возможности человека на его же собственное благо (Galván, 2020); в техноэволюции религия имеет фундаментальную значимость, так как она обособляет человека от предметного мира и фокусирует внимание на особом предназначении уникального сущего (Delio, 2020). Согласно вторым, развитие AI вызовет мощную социальную эксплозию, в значительной степени фундированную религиозными доктринами и их интерпретацией (Rossano, 2001). Во всех обозначенных публикациях и многочисленных исследованиях, вынесенных за скобки, имплицитно содержится одна и та же не лишенная оснований пресуппозиция: восприятие любой масштабной технологии, воздействующей де-факто на все сферы общественных отношений, не сводимо к денотативному уровню, но предваряется, сопровождается и результируется конструированием сложных вторичных знаковых систем – своеобразной метафизики. Археологические раскопки этой метафизики позволяют увидеть напластования магии, мистицизма и мифологии, укоренившихся в сознании человека, практически вне зависимости от духовных трендов века.

Метафизика искусственного интеллекта: аналитика обывательского дискурса. К изучению пользовательских запросов

Исторически и фигура ученого, и технологии обрабатывались производящими образы коллективными дискурсивными машинами. Наиболее устойчивые из этих образов (стереотипические) перманентно воспроизводятся культурой и даже претендуют на статус эталонов, содержащих готовые критерии для оценки реальности. В исследовании начала XXI в. R. Haynes кодифицировал наиболее устойчивые образы ученых, начиная со времен расцвета алхимии и заканчивая первыми попытками разработки искусственного интеллекта. Автор пришел к выводу, что ученый, сквозь призму художественных и публицистических нарративов, воспринимается в качестве злого и опасного человека, открытия которого априори угрожают индивидуальной и коллективной безопасности и дестабилизируют общество (Haynes, 2003, p. 243). В обывательских дискурсивных практиках фигура ученого преломляется в зеркале архетипов и подавляемых страхов, приобретая гротескные формы (в том числе, это касается и «романтизированных» образов ученых), не имеющие референции. Естественно, в литературно-публицистических нарративах утверждается прямая корреляция между сконструированной личностью исследователя и тем, что он делает. Подобное соответствие формируется и в сознании человека, далекого от науки. Романтизация и демонизация фигуры ученого неразрывно связаны с непроницаемостью самого научного дискурса для обывателя и существующим в научной практике порогом вхождения. Результирующие показатели науки в известной степени также сохраняют для обывателя свою непроницаемость, вследствие чего дискурсивная машина достраивает собственные далекие от денотата интерпретации, опирающиеся на культурный багаж прошлого, описанный, в частности, Э. Дэвисом и другими исследователями (Davis, 2008). Каналы коммуникации (в первую очередь, Интернет) перманентно воспроизводят сообщения, синтезирующие упоминания о современных технологиях с обывательской «метафизикой», фундированной циркулирующими в социуме стереотипами, влиянием популярной культуры и личными предубеждениями человека. Сообщения такого рода ничего не говорят о самой технологии и не содержат дескрипцию денотата. Они окружают искусственный интеллект (равно и другие технологические тренды) ореолом таинственности, опасности, враждебности, дружелюбия и т. д. Уже первичная аналитика пользовательских поисковых запросов позволила выявить характерные семантические кластеры, составляющие «язык» обывательской метафизики. Разумеется, техника анализа поисковых запросов не дает возможности манипулировать фразовыми комплексами, но существенно помогает в определении ключевых, устойчиво воспроизводящихся маркеров. Первичное исследование пользовательской маркировки искусственного интеллекта требовало предварительного установления диапазона базовых значений, в который вошли слова, выражающие характеристики (качества) и действия. В ходе аналитической работы были выявлены доминантные маркеры, частотность употребления которых фиксируется обозначенным инструментарием. Это значит, что специальные сервисы “Google” и «Яндекс» располагают достаточным набором данных для отображения показателей по запросам. Семантически регистрируемые запросы зачастую образуют антонимические пары (собственно, принятая в технических науках маркировка «сильный» – «слабый» тоже является такой парой). Предварительный опрос в социальных сетях показал, что спектр маркеров искусственного интеллекта значительно шире: «дегуманизирующий», «безбожный», «бездушный», «опасный», «мертвый», «рациональный». Приведенные примеры за незначительным исключением органично связаны с общеизвестной тенденцией антропоморфизации техники и технологии. В контексте hi-tech сложившаяся ситуация была описана еще М. Мори в метафорике «зловещей долины» (uncanny valley). Однако, перечисленные маркеры не вошли в итоговый перечень ввиду нерепрезентативности опроса. Подстановка этих лексем в указанные поисковые сервисы также не дала результатов. Наиболее устойчивыми и, следовательно, сохраняющими актуальность на протяжении как минимум 17 лет (максимальный временной диапазон для анализа в сервисе Google Trends) являются маркеры “kind” – “evil” («добрый» – «злой»). С 2004 г. лидирующее число запросов (в абсолютных значениях) принадлежит гражданам Индии и Соединенных Штатов Америки. Пиковые значения зафиксированы в 2004-2005 гг. С 2006 по 2016 гг. наблюдается сравнительно низкая частотность соответствующих поисковых запросов. Однако с 2020 г. по настоящее время четко прослеживается растущая динамика, что в принципе детерминировано перманентными научно-технологическими разработками, развитием зарубежных и российских систем-«помощников», популяризацией темы в средствах массовой информации, модернизацией образовательных практик и т. д.

В России с 2020 г. фиксируются абсолютные величины запросов, включающие в себя обозначенные маркеры. В результате сопоставления данных, включающих в себя запросы «добрый» и «злой», выяснилось, что абсолютная величина второго запроса значительно выше. Динамика запросов менялась с января 2020 г. по октябрь 2021 г. В октябре по запросу «добрый» зафиксировано самое высокое абсолютное значение, в полтора раза превышающее соответствующее значение в 2020 г. Величины запроса «злой искусственный интеллект» в полтора-два раза превышают показатели по запросу, содержащему соответствующий антоним. К октябрю 2021 г. наблюдается положительная динамика: Интернет-пользователи чаще вводили в поисковую строку указанное словосочетание. Группа маркеров действия включает глаголы «поможет», «создаст», «уничтожит», «поработит», «убьет». Аналитика пользовательских запросов подтвердила актуальность данного спектра маркировки. Характерно, что «поможет» и «создаст» контекстуально сопрягаются с медицинской, инженерно-технической областями и сферой занятости. В медицине применение систем AI уже не одно десятилетие связывается с диагностикой (Kononenko, 2001), анализом данных (Deo, 2015), открытием новых препаратов, или “Drug Discovery” (Stephenson, 2019) и коррекцией существующих. По поводу сферы труда, как известно, позиции четко поляризуются, от откровенного алармизма до утопических картин социальной благоустроенности. По данным исследовательского холдинга «Ромир», результаты проведенного в 2021 г. социологического опроса показали, что респонденты боятся потерять рабочие места в связи с потенциальной роботизацией сегментов трудовой деятельности или «устареванием» профессий (с данными можно ознакомиться на сайте www.tadviser.ru). В статье, резюмирующей социологическое исследование, утверждается, что каждый пятый россиянин придерживается подобного мнения. Обобщенные данные статьи косвенно подтверждаются характерными поисковыми запросами («уничтожит», «поработит», «убьет») и их семантической корреляцией.

Следует отметить, что в настоящем контексте запросы касаются отнюдь не только рынка труда и в принципе социально-экономической и политической сферы. По данным Wordstat, абсолютное значение трех последних запросов за период 2019–2021 гг. колеблется в значительно меньшей степени, чем первых двух. В 2019–2020 гг. статистика запросов «искусственный интеллект поможет» в принципе не фиксируется. Однако, в марте 2021 г. абсолютное значение запроса резко возросло (746 запросов), а в октябре того же года зафиксирован показатель 1068. Данные о семантической триаде «уничтожит» – «поработит» – «убьет», как уже было сказано, фиксируют сравнительно устойчивую динамику. Это означает, что пользователи регулярно вводят соответствующие запросы в поисковую строку.

Аналитика контента социальных сетей

Исследование поисковых запросов позволяет работать с микроструктурами, как правило, словами и словосочетаниями, но фактически не дает возможности видеть контекст маркировки. Обозначенная ситуация исправляется аналитикой контента социальных сетей с их структурой, административно поддерживаемыми формами взаимодействия и, главным образом, строго фиксированной тематикой. Развертка и дескрипция метафизики искусственного интеллекта в обывательских дискурсах не реализуема без использования аналитики конкретных пропозиций. Социальные сети, как уже говорилось, содержат неопределенно широкий спектр неэкспертных высказываний по теме, а также некоторые специфические, возможные только в цифровом контексте, форматы репрезентации метафизического дискурса. Доступность информации и открытость сетевых кластеров де-факто делает социальные сети вотчиной непрофессиональных дискурсов, пространством конструктивного и деструктивного взаимодействия, вмещающим практически любые (в том числе антинаучные, паранаучные и т. д.) возможные мнения. Элементарная статистика: в январе 2022 г. в социальной сети «ВКонтакте» по запросу «искусственный интеллект» (Россия) зафиксировано 1408 результатов. Результирующая поискового запроса означает, что «искусственный интеллект» фигурирует в названии сообщества, в перечне основных тем, абстракте или в каком-либо одном структурном элементе из названных. Следует отметить, что лидирующие позиции по числу подписчиков (от 70 до 150 тысяч) занимают публичные страницы бизнес-проектов. Искусственным интеллектом в этих сообществах, соответственно, называется обслуживающее программное обеспечение. Однако уже в контенте лидеров социальной сети содержатся маркеры обывательской метафизики. В первой позиции абстракта группы «Фестиваль роботов» (вторая позиция по числу подписчиков, выставки функционируют в России, наряду со странами ближнего зарубежья) потребителю обещают 85 «живых» машин, призывают подружиться с «гуманоидом», пишут, что роботы «трудятся и не устают» и будут «любимыми помощниками» детей и взрослых. В диалогах с подписчиками группы администрация пользуется маркировкой, затрудняющей различение обывательского и рекламного дискурсов. Разумеется, экстракт статистических данных не способен раскрыть специфику технологической метафизики. В ответе на критическое замечание пользователя о том, что ничего удивительного в работающих по алгоритму роботах-бариста нет, администратор написал: «… роботы разговаривают и осознанно отвечают на вопросы, искусственный интеллект рисует картины, которые сложно отличить от настоящих…». В рекламном коммюнике, в частности, один из экспонатов выставки презентуется следующим образом: «Чтобы не врезаться в препятствия, он использует инфракрасные датчики. На дисплее робот показывает свое настроение. Ему нравится, когда его гладят. Ты поймешь это по его улыбке!». В лаконичном сообщении смешаны научно-объективистские маркеры (термины) – «датчики», «дисплей» и маркировка обывательского дискурса, выраженная антропоморфизацией машины. При этом объем научной маркировки значительно уступает обывательской в контексте данной лексики.

Говоря о специфических форматах репрезентации, нельзя не акцентировать внимание на профилях, создатели которых позиционируют себя в качестве искусственного интеллекта. В “Facebook” (Принадлежит компании Meta, признанной в России экстремистской) обозначенный запрос выдает 12 результатов, «ВКонтакте» – 221. Несколько десятков пользователей русскоязычного кластера сети публично позиционируют себя в качестве роботов, указывая при этом даты рождения и некоторые личные данные. Самопрезентация пользователей маркируется в границах незначительного спектра пропозиций: «я – бот», «я – искусственный интеллект», «я – искусственный разум» и, наконец, популярной «я – робот». Свое отношение к искусственному интеллекту обыватель выражает не на научно-объективистском уровне и, очевидно, не только с помощью устойчивой маркировки, варьирующейся в границах бинарных оппозиций («добрый» – «злой», «хороший» – «плохой»), но и прямо номинируя себя как технологию в плане самопрезентации. Новый цивилизационный, промышленно-технологический уклад повлиял на все без исключения сферы бытия человека. Последний, по мнению некоторых исследователей, сегодня может быть с уверенностью назван «техногенным» (Khrapov, 2019; Bibarsov, 2020; Kashkarov, 2019). Являясь продуктом своего времени, техногенный человек самоопределяется в устойчивом отношении к техническому и, в значительной степени, пользуется технической мерой. Симптоматично, что русскоязычные форумы, блоги и видеохостинги, новостные сайты наполнены данными о сопоставлении активности мозга и функционирования компьютерных технологий. Де-факто сформировался обывательский язык, специфическим образом интерпретирующий научные разработки в областях нейрологии и искусственного интеллекта. В этом языке есть набор стандартных пропозиций и вопросов: «Насколько мозг мощнее / слабее суперкомпьютера?»; «суперкомпьютер Х слабее мозга в N раз» и т. д. В “Instagram” (Принадлежит компании Meta, признанной в России экстремистской) 11 аккаунтов содержат информационно-технологические, коммерческие сведения, связанные с темой «человек и машина», в “Tik-tok” есть 10 страниц об искусственном интеллекте, которые преследуют, в основном, развлекательную цель. Из 76 страниц в “Facebook” 11 личных блогов посвящены теме, связанной с осмыслением возможностей искусственного интеллекта, будущим человечества в этой сфере, демонстрацией достижений машины. Из 132 видео 84 в Facebook преследует новостную и развлекательную цель в контексте взаимодействия человека и технологии, из 84 публикаций в Facebook 19 освещают эту тему, 14 посвящены непосредственному обсуждению маркера «искусственный интеллект – почти человек». Десятая доля зарегистрированных групп в социальной сети содержит маркировку «искусственный интеллект как личность». В спектре интересов при этом указываются «философия искусственного интеллекта», «проблемы взаимодействия в человеко-машинных системах», «проблемы общего интегрированного искусственного интеллекта», «проблемы самосознания у машин» и т. д. Очевидно, что человек в своей повседневной реальности не может сохранять общепринятую в науке объективность, он подвержен аффективным реакциям, зависит от конкретного окружения, имеет многочисленные автоматизмы мышления. Именно в этой почве зреет обывательская метафизика с ее характерными чертами и особенностями (страх перед машиной, сакрализация технологических возможностей, антропоморфизация технологии и т. д.). В обывательском дискурсе социальных сетей формируется своя устойчивая маркировка технологий, консонирующая со спектром поисковых запросов.

Анализ контента социальных сетей показал, что субъект дискурса пытается идентифицировать себя в контексте отношений антропологического и технического: «Появление сильного интеллекта как инструмента не только позволит дискутировать с тостером, но и позволит людям эволюционировать на следующую ступень к более справедливому обществу» или «для человека вопрос души – это во многом вопрос его отношения с Богом, а для искусственного интеллекта главное – его контакт с человеком. Человек для искусственного интеллекта и есть Бог».

Обсуждение

Субъектоцентрические пропозиции помогают человеку интегрироваться в изменяющиеся условия жизни. Техногенные условия жизни, информация и процессы глобализации создают новый тип жизнедеятельности людей, ставя перед ними задачи, связные с выработкой определенного вида культурно-ценностных позиций в отношении систем искусственного интеллекта. Одной из самых популярных тем, освещенной в социальной сети, является проблема абсолютизации возможностей искусственного интеллекта, ее последствия, полилоги о рисках развития интеллектуальных систем, страх перед роботами-гуманоидами: «Какие роли у человека в этом новом мире?»; «В людях остаются уже остатки былого разума»; «Люди уже теперь потерялись в своей истории в качестве главного героя»; «Машина начнет вот-вот мыслить уже явно»; «Не пора ли заняться воспитанием машин?»

Очевидно, что роботы воспринимаются не только как помощники человека, но и как угроза лидерству людей в мире; при этом метафизические основания последнего заданы в общественном сознании отнюдь не техногенно. Весьма нагляден в этом отношении «кейс Ада» – недавний скандал, вызванной реакцией широкой общественности на новость о том, что «институт философии РАН потратил 742 тыс. рублей на изучение ада и зла» (https://www.mk.ru/social/2021/12/30/institut-ran-obyasnil-sut-raboty-pro-ad-za-724-tysyachi.html). По факту речь шла о статье И. Гаспарова «Является ли злом существование ада?» (Gasparov, 2021), выполненной в рамках проекта РНФ № 19-18-00441 «Феномен зла: от метафизики к теориям морали», посвященной анализу позиции современной аналитической теологии относительно посмертного воздаяния. В рамках нашего исследования показательно, что сетевые комментаторы настаивали не только на том, что ад и рай не могут быть объектом научного анализа (что, в общем-то, ожидаемо от сциентистской части научного сообщества, далекой от актуальных проблем философии религии), но и на том, что научное знание по метафизическим вопросам в принципе несостоятельно. Из этого следует, что наука не может влиять на аксиологические основания антропологической ситуации, включающей и человеческое лидерство. Не удивительно в этом контексте, что повседневность содержит в себе когнитивные и мировоззренческие ограничения, которые отражаются на восприятии новых технологий в обществе.

Несмотря на то, что линии демаркации между человеком и продуктами высокоразвитых технологий проходят в различных зонах, во-первых, человек обладает «гаммой эмоциональных реакций» (Фукуяма, 2008); во-вторых, человек, в отличие от компьютера вкладывает в выражения смысл (Серл, 1998). Многие пользователи “Facebook” четко выражают идею о необходимости контролировать процесс развития техносферы. Симптоматично в условиях сопротивления новым технологиям стихотворение Захара Правдина, опубликованное в сообществе «Искусственный интеллект как личность» (“Facebook”). Автор демаркирует онтологии «животного» и технологического миров, первый из которых цементируется творческими интенциями и спонтанностью самовыражения, второй – алгоритмизацией, комбинаторикой и точным расчетом.

Критическое отношение к новым технологиям конституируется не только в научной или научно-популярной, но и в этико-религиозной оптике. Однако аналитика контента социальных сетей показала, что религиозный аспект темы искусственного интеллекта содержательно еще не развернут: только 3 из 132 видеороликов в “Facebook” содержат в себе религиозную тематику в контексте кибернетизации общества. В обывательском дискурсе процесс обсуждения феномена в оптике религиозных мировоззренческих позиций только начинается. В публичном цифровом сетевом пространстве России идет определение ценностных ориентаций проблемы, формируется специфическая ментальность на основе преобладания христианского (православного) вероисповедания. Обозначенные тенденции, связанные со страхом перед технологиями, возможно, обусловлены тем, что в монотеистических религиях имеет место строгая классификация между «живым» и «неживым». Роботы, разумеется, воспринимаются людьми как неживые объекты и не могут занять в сознании людей позицию моральной эквивалентности (Halpern & Katz, 2012).

Выводы

Конструирование в обывательском дискурсе базовых образов AI и связанной с ними системы коннотаций отличается высоким уровнем суверенности по отношению к научно-рациональному дискурсу. Частотная маркировка AI в широком общественном дискурсе на основе инструментов аналитики поисковых запросов позволяет зафиксировать характер такой автономности, заданный структурацией социальной коммуникации в социальных сетях: при умеренном наборе денотатов возможно существование сложной системы коннотативов, действующих как метафизика обывательского дискурса. Метафорическая основа их связи опирается на характерный для мифомышления генетический принцип, в которой качества AI детерминированы качествами его символического «отца», а именно, современным архетипом «злого» ученого. Демонизация и романтизация фигуры «отца» распространяется на фигуру «сына», окружая ее ореолом таинственности, опасности и враждебности. Величины поисковых запросов отражаются образом злого искусственного интеллекта, который поработит и уничтожит человечество. Установка на «убить всех человеков» характерна не только для поисковых запросов, но и для контента социальных сетей, маркировка которых сопрягается с негативными стратегиями одушевления и персонализации AI. Важно, что в их основе лежит не уподобление AI мозгу человека, а обратное уподобление нейроактивности человека деятельности алгоритмов. В итоге человек позиционируется как «недоразум», заведомо проигрывающий созданному им же алгоритму. В этом случае закладываются мифологические основания для обожествления AI, которым противостоит характерный для массового сознания (также мифологический) алармистский тренд в отношении технологий.

Благодарности

Работа выполнена при поддержке Российского научного фонда Конкурс «Проведение фундаментальных научных исследований и поисковых научных исследований отдельными научными группами» (региональный конкурс) 22‑18-20011 «Цифровая грамотность: междисциплинарное исследование (региональный аспект)».


Список литературы

Chae, D. H., Clouston, S., Hatzenbuehler, M. L., Kramer, M. R., Cooper, H. L. F., Wilson, S. M., Stephens-Davidowitz, S. I., Gold, R. S., & Link, B. G. (2015). Association between an Internet-Based Measure of Area Racism and Black Mortality. PLOS ONE, 10(4), e0122963. https://doi.org/10.1371/journal.pone.0122963

Chae, D. H., Clouston, S., Martz, C. D., Hatzenbuehler, M. L., Cooper, H. L. F., Turpin, R., Stephens-Davidowitz, S., & Kramer, M. R. (2018). Area racism and birth outcomes among Blacks in the United States. Social Science & Medicine, 199, 49–55. https://doi.org/10.1016/j.socscimed.2017.04.019

Delio, I. (2020). Religion and Posthuman Life: A Note on Teilhard de Chardin’s Vision. Toronto Journal of Theology, 36(2), 223–234. https://doi.org/10.3138/tjt-2020-0051

Deng, Y., Han, S.-Y., Fan, W., & Sun, T. (2020). Research on the Application of Artificial Intelligence Technology in Public Product Design of Intelligent Scenic Spot. 2020 International Conference on Intelligent Transportation, Big Data & Smart City (ICITBS), 930–933. https://doi.org/10.1109/ICITBS49701.2020.00206

Deo, R. C. (2015). Machine Learning in Medicine. Circulation, 132(20), 1920–1930. https://doi.org/10.1161/CIRCULATIONAHA.115.001593

Dukhanina, L. N., & Maximenko, A. A. (2020). Problems of the implementation of artificial intelligence in education. Perspectives of Science and Education, 46(4), 23–35. https://doi.org/10.32744/pse.2020.4.2

Galván, J. M. (2020). Moral virtue of religion and technology of artificial intelligence. Quaderni di diritto e politica ecclesiastica, 23(2), 367–378. https://doi.org/10.1440/98368

Halpern, D., & Katz, J. E. (2012). Unveiling robotophobia and cyber-dystopianism: The role of gender, technology and religion on attitudes towards robots. Proceedings of the Seventh Annual ACM/IEEE International Conference on Human-Robot Interaction - HRI ’12, 139. https://doi.org/10.1145/2157689.2157724

Haynes, R. (2003). From Alchemy to Artificial Intelligence: Stereotypes of the Scientist in Western Literature. Public Understanding of Science, 12(3), 243–253. https://doi.org/10.1177/0963662503123003

Kimura, T. (2017). Robotics and AI in the sociology of religion: A human in imago roboticae. Social Compass, 64(1), 6–22. https://doi.org/10.1177/0037768616683326

Kononenko, I. (2001). Machine learning for medical diagnosis: History, state of the art and perspective. Artificial Intelligence in Medicine, 23(1), 89–109. https://doi.org/10.1016/S0933-3657(01)00077-X

Reed, R. (2021). The theology of GPT‐2: Religion and artificial intelligence. Religion Compass, 15(11). https://doi.org/10.1111/rec3.12422

Rossano, M. J. (2001). Artificial Intelligence, Religion, and Community Concern. Zygon®, 36(1), 57–75. https://doi.org/10.1111/0591-2385.00340

Singler, B. (2018). An Introduction to Artificial Intelligence and Religion For the Religious Studies Scholar. Implicit Religion, 20(3), 215–231. https://doi.org/10.1558/imre.35901

Stephens-Davidowitz, S. (2014). The cost of racial animus on a black candidate: Evidence using Google search data. Journal of Public Economics, 118, 26–40. https://doi.org/10.1016/j.jpubeco.2014.04.010

Stephens-Davidowitz, S., Varian, H., & Smith, M. D. (2017). Super returns to Super Bowl ads? Quantitative Marketing and Economics, 15(1), 1–28. https://doi.org/10.1007/s11129-016-9179-0

Stephenson, N., Shane, E., Chase, J., Rowland, J., Ries, D., Justice, N., Zhang, J., Chan, L., & Cao, R. (2019). Survey of Machine Learning Techniques in Drug Discovery. Current Drug Metabolism, 20(3), 185–193. https://doi.org/10.2174/1389200219666180820112457

Бибарсов, Д. А. (2020). «Человек играющий» и «человек техногенный»: Социокультурная характеристика и проблема сопряженности. В Социальные процессы в современном российском обществе: Проблемы и перспективы (сс. 332–338). Издательство Иркутского государственного университета.

Гаспаров, И. (2021). Является ли злом существование ада? Государство, религия, церковь в России и за Рубежом, 39(4), 51–71. https://doi.org/10.22394/2073-7203-2021-39-4-51-71

Дэвис, Э. (2008). Техногнозис: Миф, магия и мистицизм в информационную эпоху. АСТ.

Кашкаров, А. М. (2019). Техноидеология современного общества как социокультурный фактор формирования человека техногенного. Каспийский Регион: Политика, Экономика, Культура, 3, 135–141.

Серл, Д. (1998). Сознание, мозг и программы. В Аналитическая философия: Становление и развитие (антология) (сс. 376–400). Дом интеллектуальной книги.

Фукуяма, Ф. (2008). Наше постчеловеческое будущее. АСТ.

Храпов, С. А. (2019). «Человек техногенный» в социокультурном пространстве техногенной цивилизации. Издательство Астраханского государственного университета.

Шестак, В. А., & Волеводз, А. Г. (2019). Современные потребности правового обеспечения искусственного интеллекта: Взгляд из России. Всероссийский криминологический журнал, 13(2), 197–206. https://doi.org/10.17150/2500-4255.2019.13(2).197-206


References

Bibarsov, D. A. (2020). The Man of Play and the Man of Technology: Sociocultural Characteristics and the Problem of Conjugation. In Social Processes in Contemporary Russian Society: Problems and Prospects (pp. 332–338). Irkutsk State University Press. (In Russian).

Chae, D. H., Clouston, S., Hatzenbuehler, M. L., Kramer, M. R., Cooper, H. L. F., Wilson, S. M., Stephens-Davidowitz, S. I., Gold, R. S., & Link, B. G. (2015). Association between an Internet-Based Measure of Area Racism and Black Mortality. PLOS ONE, 10(4), e0122963. https://doi.org/10.1371/journal.pone.0122963

Chae, D. H., Clouston, S., Martz, C. D., Hatzenbuehler, M. L., Cooper, H. L. F., Turpin, R., Stephens-Davidowitz, S., & Kramer, M. R. (2018). Area racism and birth outcomes among Blacks in the United States. Social Science & Medicine, 199, 49–55. https://doi.org/10.1016/j.socscimed.2017.04.019

Davis, E. (2008). Technognosis: Myth, magic and mysticism in the information age. AST. (In Russian).

Delio, I. (2020). Religion and Posthuman Life: A Note on Teilhard de Chardin’s Vision. Toronto Journal of Theology, 36(2), 223–234. https://doi.org/10.3138/tjt-2020-0051

Deng, Y., Han, S.-Y., Fan, W., & Sun, T. (2020). Research on the Application of Artificial Intelligence Technology in Public Product Design of Intelligent Scenic Spot. 2020 International Conference on Intelligent Transportation, Big Data & Smart City (ICITBS), 930–933. https://doi.org/10.1109/ICITBS49701.2020.00206

Deo, R. C. (2015). Machine Learning in Medicine. Circulation, 132(20), 1920–1930. https://doi.org/10.1161/CIRCULATIONAHA.115.001593

Dukhanina, L. N., & Maximenko, A. A. (2020). Problems of the implementation of artificial intelligence in education. Perspectives of Science and Education, 46(4), 23–35. https://doi.org/10.32744/pse.2020.4.2

Fukuyama, F. (2008). Our post-human future. AST. (In Russian).

Galván, J. M. (2020). Moral virtue of religion and technology of artificial intelligence. Quaderni di diritto e politica ecclesiastica, 23(2), 367–378. https://doi.org/10.1440/98368

Gasparov, I. (2021). Would Existence of Hell Be an Evil? State, Religion, Church in Russia and beyond, 39(4), 51–71. https://doi.org/10.22394/2073-7203-2021-39-4-51-71 (In Russian).

Halpern, D., & Katz, J. E. (2012). Unveiling robotophobia and cyber-dystopianism: The role of gender, technology and religion on attitudes towards robots. Proceedings of the Seventh Annual ACM/IEEE International Conference on Human-Robot Interaction – HRI ’12, 139. https://doi.org/10.1145/2157689.2157724

Haynes, R. (2003). From Alchemy to Artificial Intelligence: Stereotypes of the Scientist in Western Literature. Public Understanding of Science, 12(3), 243–253. https://doi.org/10.1177/0963662503123003

Kashkarov, A. M. (2019). The techno-ideology of modern society as a socio-cultural factor in the formation of the technogenic man. Caspian Region: Politics, Economics, Culture, 3, 135‑141. (In Russian).

Khrapov, S. A. (2019). Man of technology in the socio-cultural space of the technogenic civilisation. Astrakhan State University Press. (In Russian).

Kimura, T. (2017). Robotics and AI in the sociology of religion: A human in imago roboticae. Social Compass, 64(1), 6–22. https://doi.org/10.1177/0037768616683326

Kononenko, I. (2001). Machine learning for medical diagnosis: History, state of the art and perspective. Artificial Intelligence in Medicine, 23(1), 89–109. https://doi.org/10.1016/S0933-3657(01)00077-X

Reed, R. (2021). The theology of GPT‐2: Religion and artificial intelligence. Religion Compass, 15(11). https://doi.org/10.1111/rec3.12422

Rossano, M. J. (2001). Artificial Intelligence, Religion, and Community Concern. Zygon®, 36(1), 57–75. https://doi.org/10.1111/0591-2385.00340

Searle, D. (1998). Consciousness, the brain and programmes. In Analytical Philosophy: Formation and Development (anthology) (pp. 376–400). Dom intellektual'noj knigi. (In Russian).

Shestak, V., & Volevodz, A. (2019). Modern Requirements of the Legal Support of Artificial Intelligence: A View from Russia. Russian Journal of Criminology, 13(2), 197–206. https://doi.org/10.17150/2500-4255.2019.13(2).197-206

Singler, B. (2018). An Introduction to Artificial Intelligence and Religion For the Religious Studies Scholar. Implicit Religion, 20(3), 215–231. https://doi.org/10.1558/imre.35901

Stephens-Davidowitz, S. (2014). The cost of racial animus on a black candidate: Evidence using Google search data. Journal of Public Economics, 118, 26–40. https://doi.org/10.1016/j.jpubeco.2014.04.010

Stephens-Davidowitz, S., Varian, H., & Smith, M. D. (2017). Super returns to Super Bowl ads? Quantitative Marketing and Economics, 15(1), 1–28. https://doi.org/10.1007/s11129-016-9179-0

Stephenson, N., Shane, E., Chase, J., Rowland, J., Ries, D., Justice, N., Zhang, J., Chan, L., & Cao, R. (2019). Survey of Machine Learning Techniques in Drug Discovery. Current Drug Metabolism, 20(3), 185–193. https://doi.org/10.2174/1389200219666180820112457