ДИСКУССИЯ. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ВОЗМОЖНОСТИ И ПОСЛЕДСТВИЯ ИСПОЛЬЗОВАНИЯ
DISCUSSION. ARTIFICIAL INTELLIGENCE: POTENTIALS AND CONSEQUENCES OF ITS APPLICATION
DOI: 10.19181/smtp.2024.6.2.2 Научная статья
EDN; FFDRFQ Research article
О ЧЁМ СТОИТ ПОМНИТЬ,
РАЗМЫШЛЯЯ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ
Тамбовцев Виталий Леонидович1
1 МГУ имени М. В. Ломоносова, Москва, Россия
Для цитирования: Тамбовцев В. Л. О чём стоит помнить, размышляя об искусственном интеллекте // Управление наукой: теория и практика. 2024. Т. 6, № 2. С. 26-34. йО! 10.19181/ зт^р.2024.6.2.2. ЕРЫ РРОЯРО.
Аннотация. В статье обсуждаются основания схожести общественного мнения об искусственном интеллекте в разных странах. В то же время оно отличается от суждений по этой тематике, которые высказывают эксперты. Эти сходства и различия объясняются близостью народных теорий, которые возникают у граждан в силу ограниченного опыта взаимодействия с искусственным интеллектом. Оценки рисков, которые дают эксперты, не полностью учитывают результаты и выводы когнитивных наук, имеющие непосредственное отношение к искусственному интеллекту. Приводится ряд результатов, полученных в когнитивных науках, и выделяются некоторые из них, которые полезно учитывать при оценке искусственного интеллекта.
Ключевые слова: искусственный интеллект, народные теории, когнитивные науки
THINGS TO KEEP IN MIND WHEN THINKING ABOUT ARTIFICIAL INTELLIGENCE
Vitaly L. Tambovtsev1
1 Lomonosov Moscow State University, Moscow, Russia
For citation: Tambovtsev V. L. Things to keep in mind when thinking about artificial intelligence. Science Management: Theory and Practice. 2024;6(2):26-34. DOI 10.19181/smtp.2024.6.2.2.
Abstract. The article discusses the reasons for the similarity of public opinion about artificial intelligence in different countries. At the same time, this opinion differs from the
M
mJf
judgments expressed by experts on this topic. These similarities and differences are explained by the conformity between folk theories that stem from individuals due to their limited experience of interacting with artificial intelligence. Risk assessments given by experts do not fully take into account the results and findings of cognitive science that are directly related to artificial intelligence. A number of results obtained in the cognitive sciences are presented. The author highlights some of them that are useful to consider when assessing artificial intelligence.
Keywords: artificial intelligence, folk theories, cognitive sciences
Искусственный интеллект (далее — ИИ) представляет собой, как известно, разнообразие компьютерных программ, обрабатывающих оцифрованные данные с целью выявления регулярностей в их совокупности, включая обнаружение сходства между подмножествами (распознавание образов), формирование новых подмножеств, близких ранее обработанным (генеративный ИИ), а также прогнозирование возможных будущих значе-
W W ТЛ W /-' U
ний выявленных регулярностей. Все такого рода действия с большей или меньшей успешностью выполняет человеческий мозг (а также мозг других живых существ), в силу чего эта расширяющаяся область программ и получила своё нынешнее название. Сам термин ИИ (Artificial Intelligence, или AI) был введён в оборот, как известно, в 1956 г. в рамках семинара, проведённого группой заинтересованных исследователей в Дартмутском колледже [1]1. За прошедшие почти семьдесят лет эта область (первоначально — чисто теоретических) исследований трансформировалась в масштабную отрасль, производящую коммерческую продукцию на многие десятки миллиардов долларов.
Подобно многим другим новым технологиям, которые активно входили в экономику, начиная с ткацких машин и железных дорог, ИИ вызвал значительный общественный интерес, породив двойственные чувства — от ожиданий того, что с ним будет решен ряд «вечных» проблем, до неприятия в силу возможных негативных последствий.
ОБЩЕСТВЕННОЕ МНЕНИЕ И ОЦЕНКИ ОБЩЕСТВОВЕДОВ
С начала 2020 г. по конец 2022 г. ВЦИОМ провёл три опроса населения относительно их восприятия ИИ2. Различаясь в деталях, все они отражали положительное или нейтральное отношение к ИИ большинства россиян. Только около трети говорили об опасениях — в плане надёжности работы ИИ,
1 Текст заявки на проведение этого семинара с описанием его основных идей - McCarthy J., Minsky M. L., RochesterN., ShannonC. E. A proposal for the Dartmouth Summer Research Project on Artificial Intelligence. 1955. August 31 // Professor John McCarthy : [сайт]. URL: http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf (дата обращения: 26.04.2024).
2 Искусственный интеллект: угроза или возможность? // ВЦИОМ : [сайт]. 2020. 27 января. URL: https:// wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyj-intellekt-ugroza-ili-vozmozhnost (дата обращения: 26.04.2024); Искусственный интеллект: благо или угроза? // ВЦИОМ : [сайт]. 2021. 7 июля. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyi-intellekt-blago-ili-ugroza (дата обращения: 26.04.2024); Искусственный интеллект: угроза или светлое будущее? // ВЦИОМ : [сайт]. 2022. 28 декабря. URL: https://wciom.ru/analytical-reviews/analiticheskii-obzor/iskusstvennyi-intellekt-ugroza-ili-svetloe-budushchee (дата обращения: 26.04.2024).
в том числе утечки персональных данных, а также о снижении уровня непосредственного общения людей. Также большинство высказали одобрение введению ИИ в сферу оказания госуслуг. Лишь около трети допускали возможность отрицательных последствий для сферы занятости, и подавляющее большинство подчёркивало необходимость господдержки распространению ИИ в различных сферах жизни.
Эти характеристики общественного мнения россиян в принципе близки к суждениям по теме ИИ, которые высказали в 2023 г. опрошенные жители Великобритании3. Интересно отметить, что анализ ответов на вопросы об ИИ среди жителей Германии4 позволил исследователям прийти к следующим выводам: поскольку те, кто менее доверяет ИИ, оценивают его вклад более позитивно, и наоборот, то для большинства опрошенных ИИ представляет собой фактически «чёрный ящик», что приводит в целом к неадекватности оценок [10]. Сделанное заключение можно отнести не только к ФРГ, но и ко всем другим странам: в составе этих представлений риски, которые вызывает развитие и распространение ИИ, являются отнюдь не приоритетными. Фактически лишь два вопроса вызывают у непрофессионалов сомнения: надёжность функционирования ИИ и потеря своего места работы (хотя многие надеются, что вместо вытеснения с рабочего места у них сократится время работы при сохранении доходов). Среди отечественных респондентов привлекает внимание уверенность многих в том, что ИИ повысит качество предоставляемых госуслуг, поскольку лишён собственного интереса и будет рекомендовать принимать более справедливые решения. Поскольку именно в этой сфере масштабы использования ИИ определяются государством, которое, с точки зрения граждан, должно обеспечивать их защиту от возможных негативных последствий применения ИИ (см. выше), соотношение мнений населения и профессионалов в данном вопросе заслуживает специального внимания.
Среди исследований ИИ с позиций социальных и экономических наук эта тематика является достаточно весомой, причем, характеризуя применение ИИ в государственном и муниципальном управлении, больше внимания уделяется рискам негативных последствий [11—14].
Каковы же те риски ИИ, которые видят обществоведы (включая экономистов)? Наиболее значимый среди них — это экзистенциальный риск утраты человечеством контроля за своим существованием в силу того, что высокоразвитый общий ИИ (general artificial intelligence) превзойдёт людей по своей возможности находить в окружающем мире закономерности и предвидеть их последствия. Этот риск будет возрастать, если исследование таких вопросов, как выявление этики, морали и генерируемых ценностей в разрабатываемых программах общего ИИ, останется столь же неразвитым, каковым оно является в наше время [12]. Значимое влияние на снижение экзистенциального риска должны также оказать такие меры, как повышение
3 Dupont J., Wride S., Ali V. What does the public think about AI? // PublicFirst : [сайт]. 2023. URL: https://publicfirst. co.uk/ai/ (дата обращения: 26.04.2024).
4 Результаты некоторых других опросов, проведённых в последнее десятилетие среди различных групп респондентов, можно найти в работах [2-9].
справедливости и прозрачности оснований решений, рекомендуемых ИИ, программное обеспечение их объяснимости, а также обеспечение контроля граждан за теми задачами, которые ставятся перед ИИ в публичном секторе [13]. Однако их реализации в состоянии препятствовать новые уклоны и сдвиги (biases), которые стали возникать у людей, такие как (1) чрезмерная уверенность (overreliance) в алгоритмических советах, даже при наличии «предупреждающих сигналов» ("warning signals") из других источников, или уклон автоматизации (automation bias), и (2) выборочное принятие алгоритмических советов, соответствующих стереотипам, или избирательная приверженность (selective adherence) [14].
Реальность экзистенциальных рисков подтверждает недавнее исследование [15], в котором авторы, основываясь на обработке большого массива данных за период 2005—2018 гг. по 137 странам, установили наличие значимой отрицательной связи между уровнем развития ИИ и оценками субъективного благосостояния. При этом результаты оказались робастными по отношению к различным мерам уровня развития ИИ, субъективного благосостояния и используемым выборкам. Приглушающее (dampening) влияние ИИ на оценки благосостояния в наибольшей степени проявилось для таких групп, как молодёжь, мужчины, высокодоходные и высококвалифицированные группы, а также работники промышленности.
Экзистенциальные риски, которые видят и обсуждают учёные, работающие в сфере социально-экономических наук, и которые редко замечает широкая общественность, самым тесным образом связаны с познавательными способностями и познавательной деятельностью людей, которые изучаются различными когнитивными науками. Как показывает анализ упомянутой выше литературы, результаты исследований, полученные в этих науках, не всегда в достаточной степени используются при анализе возможных последствий развития ИИ для людей.
ДАННЫЕ КОГНИТИВНЫХ НАУК,
КОТОРЫЕ ПОЛЕЗНО УЧИТЫВАТЬ, ОБСУЖДАЯ ИИ
Обсудим, опираясь на результаты когнитивных наук, некоторые из затронутых выше ситуаций и проблем. Прежде всего, речь идёт об объяснении той схожести суждений об ИИ, которую проявили жители разных стран,
' WW « т (*
обладающих различной историй и культурой, и т. п. Как представляется, в основе такой схожести лежит тот факт, что суждения, демонстрируемые столь разными респондентами, опираются для подавляющего большинства последних на так называемую «народную науку» (folk science), т. е. «грубую интерпретацию сложной реальности» [16]. Содержание народных теорий, т. е. совокупностей убеждений о взаимосвязях между различными объектами той или иной области окружающего индивида мира, которые он считает очевидными и не вызывающими каких-то сомнений, формируется во многом независимо от его желаний и целей. Как правило, это результат самостоятельной, или автоматической, работы мозга индивида, точнее, — «вшитых»
в него механизмов статистического научения (statistical learning), которые обеспечивают ориентацию индивида в окружающем мире и адаптацию к его изменениям [17]. На это содержание влияет также и сознательное научение индивида, а также иная информация, получаемая им из самых разных источников. Компоненты народных наук содержатся в долгосрочной памяти человека и весьма устойчивы к получению новой информации, которая может им противоречить. Ответственным за эту «прочность» выступает уклон (или склонность к) подтверждения (confirmation bias), названный в [18] «повсеместным феноменом во многих обличьях». Он заключается в том, что, располагая некоторым убеждением, люди склонны не обращать внимания на ту информацию, которая ему противоречит. Вероятно, единственным действенным фактором, способным породить изменение убеждений, может стать личный опыт столкновения с несоответствием реальности и убеждений, хотя и здесь возможен барьер в виде «теории заговора», когда «неправильная» реальность объясняется сознательными действиями группы лиц, реализующих свои убеждения, отличные от убеждений индивида [19]. Важным фактором устойчивости убеждений, вошедших в народную теорию того или иного фрагмента реальности, является присущая им иллюзия объяснительной глубины (illusion of explanatory depth) [20]. Как показано в этом исследовании, наибольшая «объяснительная сила» присуща тем регу-лярностям, которые относятся к непосредственно наблюдаемым (видимым невооруженным глазом) явлениям и процессам, — т. е. именно к тому, что, собственно говоря, и является одной из основ возникновения убеждений, составляющих соответствующую народную теорию. Такие объяснительные инструменты оказываются для неспециалистов более действенными, чем научные выводы, цифры или нарративы.
Само по себе наличие убедительного (для каждого конкретного индивида) объяснения широкого круга феноменов — от различных внешних событий до собственных решений и действий — важно для людей потому, что объяснение позволяет видеть мир определённым, укладывающимся в ту совокупность знаний и убеждений, которыми они располагают. При этом «хорошие» объяснения должны быть понятными, т. е. опять-таки не выходящими за рамки этой совокупности [21].
Как известно, алгоритмы, позволяющие выявлять различные регулярности в больших массивах информации, часто обнаруживают неочевидные зависимости, наличие которых непонятно людям, что приводит к недоверию таким выводам ИИ. Это ставит перед разработчиками ИИ актуальную задачу обеспечения объяснимости упомянутых выводов. Поскольку люди видят наличие у ИИ человекоподобных свойств, то для того, чтобы доверие к ИИ повысилось, объяснения работы алгоритмов также должны отвечать представлениям об объяснениях, удовлетворяющих основную часть индивидов [22—23]. Тем самым знание результатов исследований психологии когнитивной деятельности человека оказывается условием успеха усилий программистов по повышению доверия граждан к ИИ.
Здесь важно подчеркнуть, что статистическое научение, выполняемое мозгом человека (и других животных), осуществляют также и те алгорит-
мы, которые мы называем ИИ. О них говорят как об алгоритмах машинного научения, однако последнее — разновидность статистического. Его теория была разработана В. Н. Вапником в середине 1960-х гг. [24] и используется как в исследовании когнитивных процессов живых существ [17; 25], так и в разработках ИИ [26]. Это обстоятельство, казалось бы, лишь укрепляет обоснованность экзистенциального риска, о котором шла речь выше. Однако, как показано в [27], между людьми и разрабатываемыми ими алгоритмами есть ощутимое различие: только люди (пока?) обладают способностью находить новые возможности использования (или, как говорят в сфере дизайна, аффордансы) у различных объектов, создатели которых не предполагали подобных способов их применения. Как считают исследователи, эта творческая способность людей является результатом их эволюционного развития, которое, как известно, не направлено на достижение какой-либо цели. Заметим, что значимой формой этой особенности устройства мозга выступают предпринимательские способности, лежащие в основе развития экономических систем.
Отметим ещё одну черту, имеющуюся у человека, но не присутствующую сегодня у ИИ. Обрабатывая данные, получаемые из видеокамер и динамиков, ИИ цифрует их перед тем, как начать обрабатывать в соответствии с его алгоритмами. Однако у людей имеется (дано эволюцией) больше органов чувств, которые включают не только те, что обеспечивают зрение и слух, но также и те, что дают им обоняние, осязание, ощущение вкуса, а также чувства равновесия и тяжести (земного притяжения). Это отличие в принципе преодолимо — достаточно разработать и подключить к ИИ соответствующие датчики.
Однако наряду с «первичными» чувствами (или ощущениями), которые предоставлены организмом природой, у людей возникают также и «вторичные», такие, например, как чувство отвращения к чему-либо. Исследования показывают, что это чувство основано на предвидении возможного ущерба [28—29], т. е. отражает опыт выживания многих поколений, — тех, которые осознавали, что некоторых ситуаций следует избегать. Возникновение подобных чувств у ИИ — вопрос (неблизкого?) будущего.
Таким образом, пока те решения, которые принимаются людьми и ИИ, базируются на разных типах обрабатываемой информации, решения, рекомендуемые ИИ, могут быть понятны и приемлемы людьми только в тех ситуациях, где «вторичные» чувства индивидов не учитываются ими при выборе варианта действий. Легко видеть, что к упомянутым чувствам относятся все те, что составляют содержание понятий морали и нравственности. Это содержание, конечно, может быть несовпадающим в различных сообществах, но факт его существования вряд ли будет кто-то отрицать.
В этой связи важно обратить внимание на феномен, открытый в начале 1980-х гг. Б. Либетом и его сотрудниками [30]: между моментом времени, в который мозг определяет, какое действие совершить, и моментом, когда оно начинает действительно осуществляться, проходит некоторое время. Этот интервал различен у разных людей, однако свидетельствует о том, что сознание людей оценивает «рекомендацию» мозга с точки зрения её приемлемости.
Это исследование вызвало широкую дискуссию и ряд проверочных экспериментов, недавно проведённый метаанализ которых показал, что в основном первичные наблюдениями были вполне справедливыми [31]. Аналогии с использованием ИИ для принятия решений очевидны: ведь механизмы мозга, осуществляющие статистическое научение и прогнозирование (выработку ожиданий), действуют вполне схоже с ИИ, пусть и основываясь на несовпадающих механизмах. Если сознание человека подвергает сомнению работу его собственного мозга, то делать то же с «чужим» ИИ просто необходимо: ведь у самого ИИ контролирующего и независимого от него механизма «сознания» просто нет.
И последний момент, на который стоит обратить внимание. Всегда ли интуитивные, «неоцифрованные» решения, принимаемые людьми без оптимизационных расчётов, приводят к ожидавшимся наилучшим результатам? Разумеется, нет! Однако с этим уровнем ошибок человечество прошло путь от появления Homo sapiens sapiens около трёхсот тысяч лет назад до нынешних времен. Значит, уровень ошибок в процессах принятия решений, в том числе жизненно важных, позволял реализовать те эволюционные преимущества, которые возникли у современных людей как нового биологического вида. Основанием считать, что этот уровень может подвести в наше время, является лишь ощутимое повышение масштабов разрушительных последствий этих решений, обусловленное научно-техническим и технологическим прогрессом. Так может быть, нужно обратить внимание не только на ИИ, но и на более глубокое обоснование человеческих решений?
СПИСОК ИСТОЧНИКОВ / REFERENCES
1. Cordeschi R. AI turns fifty: Revisiting its origins. Applied Artificial Intelligence. 2007;21(4-5):259-279. DOI 10.1080/08839510701252304.
2. Müller V. C., Bostrom N. Future progress in artificial intelligence: A poll among experts. AI Matters. 2014;1(1):9-11. DOI 10.1145/2639475.2639478.
3. Morikawa M. Who are afraid of losing their jobs to artificial intelligence and robots? Evidence from a survey. RIETI Discussion Paper Series. 17-E-069. 2017. May. Available at: https://rieti.go.jp/jp/publications/dp/17e069.pdf (accessed: 26.04.2024).
4. Merenkov A. V., Campa R., Dronishinets N. P. Public opinion on artificial intelligence development. KnE Social Sciences. 2020;5(2):565-574. DOI 10.18502/kss.v5i2.8401.
5. Kelley P. G., Yang Y., Heldreth C., Moessner C., Sedley A., Kramm A., Newman D. T., Woodruf A. Exciting, useful, worrying, futuristic: Public perception of artificial intelligence in 8 countries. In: AIES'21 : Proceedings of the 2021 AAAI/ACM conference on AI, ethics, and society. May 19-21, 2021, Virtual Event USA. New York : Association for Computing Machinery; 2021. P. 627-637. DOI 10.1145/3461702.3462605.
6. European Commission, European Research Council Executive Agency. Foresight: Use and impact of artificial intelligence in the scientific process. Luxembourg : Publications Office of the European Union; 2023. 17 p. DOI 10.2828/10694.
7. Gillespie N., Lockey S., Curtis C., Pool J., Akbari A. Trust in artificial intelligence: A global study. Brisbane ; New York : The University of Queensland ; KPMG Australia; 2023. 82 p. DOI 10.14264/00d3c94.
8. Sun M., Hu W., Wu Y. Public perceptions and attitudes towards the application of artificial intelligence in journalism: From a China-based survey. Journalism Practice. 2024;18(3):548-570. DOI 10.1080/17512786.2022.2055621.
9. Haesevoets T., Verschuere B., Van Severen R., Roets A. How do citizens perceive the use of Artificial Intelligence in public sector decisions? Government Information Quarterly. 2024;41(1):101906. DOI 10.1016/j.giq.2023.101906.
10. Brauner P., Hick A., Philipsen R., Ziefle M. What does the public think about artificial intelligence? - A criticality map to understand bias in the public perception of AI. Frontiers in Computer Science. 2023;5:1113903. DOI 10.3389/fcomp.2023.1113903.
11. Müller V. C. Risks of general artificial intelligence. Journal of Experimental & Theoretical Artificial Intelligence. 2024;26(3):297-301. DOI 10.1080/0952813X.2014. 895110.
12. McLean S., Read G. J. M., Thompson J., Baber C., Stanton N. A., Salmon P. M. The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental & Theoretical Artificial Intelligence. 2023;35(5):649-663. DOI 10.1080/0 952813X.2021.1964003.
13. Madan R., Ashok M. A public values perspective on the application of Artificial Intelligence in government practices: A synthesis of case studies. In: Saura J. R., Debasa F., eds. Handbook of research on artificial intelligence in government practices and processes. Hershey, PA : IGI Global; 2022. P. 162-189. DOI 10.4018/978-1-7998-9609-8.ch010.
14. Alon-Barkat S., Busuioc M. Human-AI interactions in public sector decision making: "Automation bias" and "selective adherence" to algorithmic advice. Journal of Public Administration Research and Theory. 2023;33(1):153-169. DOI 10.1093/jopart/ muac007.
15. Zhao Y., Yin D., Wang L., Yu Y. The rise of artificial intelligence, the fall of human wellbeing? International Journal of Social Welfare. 2024;33(1):75-105. DOI 10.1111/ ijsw.12586.
16. Keil F. C. Folkscience: Coarse interpretations of a complex reality. Trends in Cognitive Sciences. 2003;7(8):368-373. DOI 10.1016/s1364-6613(03)00158-x.
17. Schapiro A., Turk-Browne N. Statistical learning. In: Toga A. W., ed. Brain mapping: An encyclopedic reference. Vol. 3. London : Elsevier/Academic Press; 2015. P. 501-506. DOI 10.1016/B978-0-12-397025-1.00276-1.
18. Nickerson R. S. Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology. 1998;2(2):175-220. DOI 10.1037/1089-2680.2.2.175.
19. Vitriol J. A., Marsh J. K. The illusion of explanatory depth and endorsement of conspiracy beliefs. European Journal of Social Psychology. 2018;48(7):955-969. DOI 10.1002/ejsp.2504.
20. Rozenblit L., Keil F. The misunderstood limits of folk science: An illusion of explanatory depth. Cognitive Science. Vol. 2002;26(5):521-562. DOI 10.1207/ s15516709cog2605_1.
21. Miller T. Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence. 2019;267:1-38. DOI 10.1016/j.artint.2018.07.007.
22. De Graaf M. M. A., Malle B. F. How people explain action (and autonomous intelligent systems should too). In: Artificial intelligence for human-robot interaction : Papers from the AAAI Fall Symposium, 2017. Palo Alto, CA : The AAAI Press; 2017. P. 19-26.
23. Doshi-Velez F., Kim B. Towards a rigorous science of interpretable machine learning. arXiv. 2017. March 2. Available at: https://arxiv.org/abs/1702.08608 (accessed: 26.04.2024). DOI 10.48550/arXiv.1702.08608.
24. Vapnik V. The nature of statistical learning theory. New York : Springer; 1995. xv, 193 p. ISBN 978-0-387-94559-0.
25. Ordin M., Polyanskaya L., Soto D. Neural bases of learning and recognition of statistical regularities. Annals of the New York Academy of Sciences. 2020;1467(1):60-76. DOI 10.1111/nyas.14299.
26. Alnuaimi A. F. A. H., Albaldawi T. H. K. Concepts of statistical learning and classification in machine learning: An overview. BIO Web of Conferences. 2024;97:00129. DOI 10.1051/bioconf/20249700129.
27. Roli A., Jaeger J., Kauffman S. A. How organisms come to know the world: Fundamental limits on artificial general intelligence. Frontiers in Ecology and Evolution. 2022;9:806283. DOI 10.3389/fevo.2021.806283.
28. Curtis V., Aunger R., Rabie T. Evidence that disgust evolved to protect from risk of disease. Proceedings of the Royal Society B: Biological Sciences. 2004;271(Suppl. 4):S131-S133. DOI 10.1098/rsbl.2003.0144.
29. Rozin P., Haidt J. The domains of disgust and their origins: Contrasting biological and cultural evolutionary accounts. Trends in Cognitive Sciences. 2013; 17(8):367-368. DOI 10.1016/j.tics.2013.06.001.
30. Libet B., Gleason C. A., Wright E. W., Pearl D. K. Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential): The unconscious initiation of a freely voluntary act. Brain. 1983;106(3):623-642. DOI 10.1093/brain/106.3.623.
31. Braun M. N., Wessler J., Friese M. A meta-analysis of Libet-style experiments. Neuroscience & Biobehavioral Reviews. 2021;128:182-198. DOI 10.1016/j. neubiorev.2021.06.018.
Поступила в редакцию / Received 17.04.2024. Одобрена после рецензирования/Revised 07.05.2024.
Принята к публикации/Accepted 20.05.2024.
СВЕДЕНИЯ ОБ АВТОРЕ
Тамбовцев Виталий Леонидович [email protected]
Доктор экономических наук, профессор, МГУ имени М. В. Ломоносова, Москва, Россия ЭРИМ-код: 5938-6806
INFORMATION ABOUT THE AUTHOR
Vitaly L. Tambovtsev [email protected]
Doctor of Economics, Professor, Lomonosov Moscow State University, Moscow, Russia ORCID: 0000-0002-0667-3391