Журнал: Социологический журнал
Аганова А. В., Катерный И. В.
Моральный статус искусственного интеллекта: в поисках социологической перспективы
DOI: https://doi.org/10.19181/socjour.2025.31.1.5Аганова Анастасия Вячеславовна
Национальный исследовательский университет «Высшая школа экономики»; Фонд «Общественное мнение», Москва, Россия
аспирант, Аспирантская школа по социологическим наукам, Национальный исследовательский университет «Высшая школа экономики»; старший аналитик, Фонд «Общественное мнение» (ФОМ)
Катерный Илья Владимирович
МГИМО МИД России; Институт социологии ФНИСЦ РАН, Москва, Россия
доктор социологических наук, профессор, кафедра социологии, МГИМО МИД России; ведущий научный сотрудник, Институт социологии ФНИСЦ РАН
Полный текст

Ссылка при цитировании:
Аганова А. В., Катерный И. В. Моральный статус искусственного интеллекта: в поисках социологической перспективы // Социологический журнал. 2025. Том. 31. № 1. С. 92-109.
DOI: https://doi.org/10.19181/socjour.2025.31.1.5. EDN: NRRIYS
DOI: https://doi.org/10.19181/socjour.2025.31.1.5. EDN: NRRIYS
Рубрика:
ПРИГЛАШЕНИЕ К ДИСКУССИИАннотация:
В статье рассматривается проблематика моральной агентности и моральной пациентности искусственного интеллекта (ИИ). В первой части статьи дается обзор основных теоретических аргументов, а также некоторых экспериментальных данных относительно (не)возможности наделения машин моральным статусом. Демонстрируется, что антропоморфизм и анимизм в восприятии ИИ, будучи культурно обусловленными, в значительной мере влияют на моральное признание искусственного интеллекта. Во второй части статьи выделяются основные исследовательские векторы, представляющиеся перспективными для рассмотрения сквозь социологическую призму, в частности: (а) фокусировка на конкретных контекстах взаимодействия с ИИ; (б) поиск социально-культурных различий в приписывании моральной агентности и пациентности, а также в моральных ожиданиях от ИИ, в восприятии проблем, связанных с его использованием; (в) социологическая экспертиза проблем разработки этического дизайна; (г) проблема делегирования морально-релевантных решений ИИ. В завершение статьи проблема морального статуса ИИ моделируется через стратификацию интегрированной моральной ответственности за социальные последствия в человеко-машинных взаимодействиях, в рамках которой выделяются несколько уровней, демонстрирующих усиление морального непризнания ИИ с ростом его автономности и разумности.Литература:
- 1. Абрамов Р.Н., Катечкина В.М. Социальные аспекты взаимодействия человека и робота: опыт экспериментального исследования // Журнал социологии и социальной антропологии. 2022. Т. 25. № 2. С. 214–243. DOI: 10.31119/jssa.2022.25.2.9 EDN: ASRIAF
- 2. Автономное оружие: открытое письмо исследователей ИИ и роботов, 01.09.2017 // Future of Life Institute [электронный ресурс]. Дата обращения 15.03.2020. URL: https://futureoflife.org/open-letter-autonomous-weapons-russian/
- 3. Баррат Дж. Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens / Пер. с англ. М.: Альпина нон-фикшн, 2015. — 304 с.
- 4. Быков А.В. Когнитивная и аналитическая перспективы в новой социологии морали: основания различения и ключевые особенности // Социологический журнал. 2024. Т. 30. № 1. С. 26–42. DOI: 10.19181/socjour.2024.30.1.2 EDN: FCOYMR
- 5. Быков А.В. Понятие морального сознания в социологической традиции // Социологический журнал. 2017. Т. 23. № 3. С. 26–43. DOI: 10.19181/socjour.2017.23.3.5362 EDN: ZIPDET
- 6. Девятко И.Ф. Проблема ориентации искусственного интеллекта на человеческие ценности (AI value alignment) и социология морали // Социологические исследования. 2023. № 9. С. 16–28. DOI: 10.31857/S013216250027775-5 EDN: QVKPLQ
- 7. Кант И. Критика практического разума / Пер. Н.М. Соколова // Кант И. Сочинения. В 8 т. / Под общ. ред. А.В. Гулыги. М.: ЧОРО, 1994. Т. 4. С. 373–479.
- 8. Кант И. Основоположения метафизики нравов / Пер. Л.Д.Б. // Кант И. Сочинения. В 8 т. / Под общ. ред. А.В. Гулыги. М.: ЧОРО, 1994. Т. 4. С. 153–246.
- 9. Катерный И.В. Каузальные объяснения эффекта «зловещей долины» в робототехнике: теории и исследовательские данные // Качество и жизнь. 2017. № 4. С. 88–96 EDN: YOPGDD
- 10. Корбут А.М. Одомашнивание искусственного интеллекта: умные колонки и трансформация повседневной жизни // Мониторинг общественного мнения: экономические и социальные перемены. 2021. № 1. С. 193–216. DOI: 10.14515/monitoring.2021.1.1808 EDN: TKKKDP
- 11. Максимова А.С. Настройка собеседника: интеракционные барьеры в телефонном разговоре с роботом // Приключения технологий: барьеры цифровизации в России / Л.В. Земнухова и др. М., СПб.: ФНИСЦ РАН, 2020. C. 95–132. DOI: 10.31119/978-5-89697-339-3
- 12. Нарьян С.К., Быков А.В. Проблема моральной агентности акторов: перспективы социологического подхода в контексте теории «моральной диады» // Социологический журнал. 2022. Т. 28. № 1. С. 8–23. DOI: 10.19181/socjour.2022.28.1.8835 EDN: NIJSPT
- 13. Хонинева Е.А. Гендер и дисплей: коммуникативные жанры и способы категоризации во взаимодействии с голосовыми ассистентами // Журнал социологии и социальной антропологии. 2017. Т. 20. № 5. С. 95–112. DOI: 10.31119/jssa.2017.20.5.6 EDN: ZVMKGF
- 14. Широкова М. К роботам-курьерам отнеслись по-человечески, 30.11.2023 // Коммерсантъ [электронный ресурс]. Дата обращения 02.01.2025. URL: https://www.kommersant.ru/doc/6366826
- 15. Шталь Б.К., Шредер Д., Родригес Р. Этика искусственного интеллекта: кейсы и варианты решения этических проблем / Пер. с англ.; Науч. ред. А. Павлов. М.: Издательский дом ВШЭ, 2024. — 200 с. DOI: 10.17323/978-5-7598-2981-2 EDN: WYWKGL
- 16. Abend G. Thick Concepts and the Moral Brain. European Journal of Sociology. 2011. Vol. 52. No. 1. P. 143–172. DOI: 10.1017/S0003975611000051
- 17. Awad E., Dsouza S., Kim R., et. al. The Moral Machine Experiment. Nature. 2018. Vol. 563. P. 59–64. DOI: 10.1038/s41586-018-0637-6
- 18. Banks J. A Perceived Moral Agency Scale: Development and Validation of a Metric for Humans and Social Machines. Computers in Human Behavior. 2019. Vol. 90. P. 363–371. DOI: 10.1016/j.chb.2018.08.028
- 19. Banks J. From Warranty Voids to Uprising Advocacy: Human Action and the Perceived Moral Patiency of Social Robots. Frontiers in Robotics and AI. 2021. Vol. 8. Art. 670503. DOI: 10.3389/frobt.2021.670503
- 20. Banks J., Bowman N.D. Perceived Moral Patiency of Social Robots: Explication and Scale Development. International Journal of Social Robotics. 2023. Vol. 15. No. 1. P. 101–113. DOI: 10.1007/s12369-022-00950-6
- 21. Bartneck C., Keijsers M. The Morality of Abusing a Robot. Paladyn, Journal of Behavioral Robotics. 2020. Vol. 11. No. 1. P. 271–283. DOI: 10.1515/pjbr-2020-0017
- 22. Basl J., Sandler R. Three Puzzles Regarding the Moral Status of Synthetic Organisms. Synthetic Biology and Morality: Artificial Life and the Bounds of Nature. Ed. by G.E. Kaebnick, T.H. Murray. Cambridge, MA: MIT Press, 2013. P. 89–106. DOI: 10.7551/mitpress/9780262019392.003.0009
- 23. Bertoncini A.L.C., Serafim M.C. Ethical Content in Artificial Intelligence Systems: A Demand Explained in Three Critical Points. Frontiers in Psychology. 2023. Vol. 14. Art. 1074787. DOI: 10.3389/fpsyg.2023.1074787
- 24. Bigman Y.E., Gray K. People Are Averse to Machines Making Moral Decisions. Cognition. 2018. No. 181. P. 21–34. DOI: 10.1016/j.cognition.2018.08.003
- 25. Bro?ek B., Janik B. Can Artificial Intelligences Be Moral Agents? New Ideas in Psychology. 2019. Vol. 54. P. 101–106. DOI: 10.1016/j.newideapsych.2018.12.002
- 26. Cervantes J.-A., Lopez S., Rodriguez L.-F., et. al. Artificial Moral Agents: A Survey of the Current Status. Science and Engineering Ethics. 2020. Vol. 26. No. 2. P. 501–532. DOI: 10.1007/s11948-019-00151-x
- 27. Choi T.R., Drumwright M.E. “OK, Google, Why Do I Use You?” Motivations, Post-Consumption Evaluations, and Perceptions of Voice AI Assistants. Telematics and Informatics. 2021. Vol. 62. Art. 101628. DOI: 10.1016/j.tele.2021.101628
- 28. Coeckelbergh M. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability. Science and Engineering Ethics. 2020. Vol. 26. No. 4. P. 2051–2068. DOI: 10.1007/s11948-019-00146-8
- 29. Colombatto C., Fleming S. Folk Psychological Attributions of Consciousness to Large Language Models. Neuroscience of Consciousness. 2024. No. 1, Art. niae013. DOI: 10.1093/nc/niae013
- 30. DeGrazia D. Moral Status as a Matter of Degree? Southern Journal of Philosophy. 2008. Vol. 46. No. 2. P. 181–198 DOI: 10.1111/j.2041-6962.2008.tb00075.x
- 31. DeGrazia D. Robots with Moral Status? Perspectives in Biology and Medicine. 2022. Vol. 65. No. 1. P. 73–88. DOI: 10.1353/pbm.2022.0004
- 32. Dong M., Bocian K. Responsibility Gaps and Self-Interest Bias: People Attribute Moral Responsibility to AI for Their Own but not Others’ Transgressions. Journal of Experimental Social Psychology. 2024. Vol. 111. Art. 104584. DOI: 10.1016/j.jesp.2023.104584
- 33. Formosa P., Ryan M. Making Moral Machines: Why We Need Artificial Moral Agents. AI & SOCIETY. 2021. Vol. 36. No. 3. P. 839–851. DOI: 10.1007/s00146-020-01089-6
- 34. Friedman C. Human-Robot Moral Relations: Human Interactants as Moral Patients of Their Own Agential Moral Actions Towards Robots. Artificial Intelligence Research. SACAIR 2021. Communications in Computer and Information Science. Ed. by A. Gerber. 2020. Vol 1342. P. 3–20. DOI: 10.1007/978-3-030-66151-9_1
- 35. Fritz A., Brandt W., Gimpel H., et. al. Moral Agency without Responsibility? Analysis of Three Ethical Models of Human-Computer Interaction in Times of Artificial Intelligence (AI). De Ethica. 2020. Vol. 6. No. 1. P. 3–22. DOI: 10.3384/de-ethica.2001-8819.20613
- 36. Gamez P., Shank D.B., Arnold C., North M. Artificial Virtue: The Machine Question and Perceptions of Moral Character in Artificial Moral Agents. AI & SOCIETY. 2020. Vol. 35. No. 4. P. 795–809. DOI: 10.1007/s00146-020-00977-1
- 37. Hitlin S., Vaisey S. The New Sociology of Morality. Annual Review of Sociology. 2013. Vol. 39. No. 1. P. 51–68. DOI: 10.1146/annurev-soc-071312-145628
- 38. Ikari S., Sato K., Burdett E., et. al. Religion-Related Values Differently Influence Moral Attitude for Robots in the United States and Japan. Journal of Cross-Cultural Psychology. 2023. Vol. 54. No. 6–7. P. 742–759 DOI: 10.1177/00220221231193369
- 39. Korsgaard C. The Sources of Normativity. Cambridge: Cambridge University Press, 1996. 273 p. DOI: 10.1017/CBO9780511554476
- 40. Laakasuo M., Herzon V., Perander S., et. al. Socio-Cognitive Biases in Folk AI Ethics and Risk Discourse. AI and Ethics. 2021. Vol. 1. No. 4. P. 593–610. DOI: 10.1007/s43681-021-00060-5
- 41. Mittelstadt B.D., Allo P., Taddeo M., et. al. The Ethics of Algorithms: Mapping the Debate. Big Data & Society. 2016. Vol. 3. No. 2. Art. 205395171667967. DOI: 10.1177/2053951716679679
- 42. Moosavi P. Will Intelligent Machines Become Moral Patients? Philosophy and Phenomenological Research. 2023. Vol. 109. No. 1. P. 95–116. DOI: 10.1111/phpr.13019
- 43. O’Leary D.E. GOOGLE’S Duplex: Pretending to Be Human. Intelligent Systems in Accounting Finance & Management. 2019. Vol. 26. No. 1. P. 46–53. DOI: 10.1002/isaf.1443
- 44. Pause Giant AI Experiments: An Open Letter, 23.03.2023. Future of Life Institute. Accessed 09.01.2025. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
- 45. Redaelli R. Different Approaches to the Moral Status of AI: A Comparative Analysis of Paradigmatic Trends in Science and Technology Studies. Discover Artificial Intelligence. 2023. Vol. 3. No. 1. Art. 25. DOI: 10.1007/s44163-023-00076-2
- 46. Scheessele M. A Framework for Grounding the Moral Status of Intelligent Machines. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society. Ed. by J. Furman, G. Marchant, H. Price, F. Rossi. N.-Y.: Association for Computing Machinery, 2018. P. 215–256 DOI: 10.1145/3278721.3278743
- 47. Shank D.B., DeSanti A., Maninger T. When Are Artificial Intelligence Versus Human Agents Faulted for Wrongdoing? Moral Attributions after Individual and Joint Decisions. Information, Communication & Society. 2019. Vol. 22. No. 5. P. 648–663. DOI: 10.1080/1369118X.2019.1568515
- 48. Shevlin H. How Could We Know When a Robot Was a Moral Patient? Cambridge Quarterly of Healthcare Ethics. 2021. Vol. 30. No. 3. P. 459–471. DOI: 10.1017/S0963180120001012
- 49. Smiley L. The Legal Saga of Uber’s Fatal Self-Driving Car Crash is Over. Wired. Jul 28, 2023. Accessed 25.12.2024. URL: https://www.wired.com/story/ubers-fatal-self-driving-car-crash-saga-over-operator-avoids-prison/
- 50. Sparrow R. Why Machines Cannot Be Moral. AI & SOCIETY. 2021. Vol. 36. No. 3. P. 685–693. DOI: 10.1007/s00146-020-01132-6
- 51. Sullivan Y.W., Fosso Wamba S. Moral Judgments in the Age of Artificial Intelligence. Journal of Business Ethics. 2022. Vol. 178. No. 4. P. 917–943. DOI: 10.1007/s10551-022-05053-w
- 52. The Nobel Prize in Chemistry 2024. Press-release, 09.10.2024. The Royal Swedish Academy of Sciences. Accessed 01.02.2025. URL.: https://www.nobelprize.org/prizes/chemistry/2024/press-release/
- 53. Tsamados A., Aggarwal N., Cowls J., et. al. The Ethics of Algorithms: Key Problems and Solutions. Ethics, Governance, and Policies in Artificial Intelligence. Ed. by L. Floridi. Springer, 2021. P. 97–123. DOI: 10.1007/978-3-030-81907-1_8