Моральный статус искусственного интеллекта: в поисках социологической перспективы

Научная статья
  • Анастасия Вячеславовна Аганова Национальный исследовательский университет «Высшая школа экономики»; Фонд «Общественное мнение», Москва, Россия avaganova@hse.ru
  • Илья Владимирович Катерный МГИМО МИД России; Институт социологии ФНИСЦ РАН, Москва, Россия yarkus@mail.ru ORCID ID https://orcid.org/0000-0002-5505-4941
    Elibrary Author_id 250643
    SPIN 8082-7990
    ResearchID C-9663-2014
Для цитирования
Аганова А. В., Катерный И. В. Моральный статус искусственного интеллекта: в поисках социологической перспективы // Социологический журнал. 2025. Том 31. № 1. С. 92-109. DOI: https://doi.org/10.19181/socjour.2025.31.1.5 EDN: NRRIYS

Аннотация

В статье рассматривается проблематика моральной агентности и моральной пациентности искусственного интеллекта (ИИ). В первой части статьи дается обзор основных теоретических аргументов, а также некоторых экспериментальных данных относительно (не)возможности наделения машин моральным статусом. Демонстрируется, что антропоморфизм и анимизм в восприятии ИИ, будучи культурно обусловленными, в значительной мере влияют на моральное признание искусственного интеллекта. Во второй части статьи выделяются основные исследовательские векторы, представляющиеся перспективными для рассмотрения сквозь социологическую призму, в частности: (а) фокусировка на конкретных контекстах взаимодействия с ИИ; (б) поиск социально-культурных различий в приписывании моральной агентности и пациентности, а также в моральных ожиданиях от ИИ, в восприятии проблем, связанных с его использованием; (в) социологическая экспертиза проблем разработки этического дизайна; (г) проблема делегирования морально-релевантных решений ИИ. В завершение статьи проблема морального статуса ИИ моделируется через стратификацию интегрированной моральной ответственности за социальные последствия в человеко-машинных взаимодействиях, в рамках которой выделяются несколько уровней, демонстрирующих усиление морального непризнания ИИ с ростом его автономности и разумности.
Ключевые слова:
искусственный интеллект, моральная агентность, моральная пациентность, мораль, социология морали

Биографии авторов

Анастасия Вячеславовна Аганова, Национальный исследовательский университет «Высшая школа экономики»; Фонд «Общественное мнение», Москва, Россия
аспирант, Аспирантская школа по социологическим наукам, Национальный исследовательский университет «Высшая школа экономики»; старший аналитик, Фонд «Общественное мнение» (ФОМ)
Илья Владимирович Катерный, МГИМО МИД России; Институт социологии ФНИСЦ РАН, Москва, Россия
доктор социологических наук, профессор, кафедра социологии, МГИМО МИД России; ведущий научный сотрудник, Институт социологии ФНИСЦ РАН

Литература

1. Абрамов Р.Н., Катечкина В.М. Социальные аспекты взаимодействия человека и робота: опыт экспериментального исследования // Журнал социологии и социальной антропологии. 2022. Т. 25. № 2. С. 214–243. DOI: 10.31119/jssa.2022.25.2.9 EDN: ASRIAF

2. Автономное оружие: открытое письмо исследователей ИИ и роботов, 01.09.2017 // Future of Life Institute [электронный ресурс]. Дата обращения 15.03.2020. URL: https://futureoflife.org/open-letter-autonomous-weapons-russian/

3. Баррат Дж. Последнее изобретение человечества: Искусственный интеллект и конец эры Homo sapiens / Пер. с англ. М.: Альпина нон-фикшн, 2015. — 304 с.

4. Быков А.В. Когнитивная и аналитическая перспективы в новой социологии морали: основания различения и ключевые особенности // Социологический журнал. 2024. Т. 30. № 1. С. 26–42. DOI: 10.19181/socjour.2024.30.1.2 EDN: FCOYMR

5. Быков А.В. Понятие морального сознания в социологической традиции // Социологический журнал. 2017. Т. 23. № 3. С. 26–43. DOI: 10.19181/socjour.2017.23.3.5362 EDN: ZIPDET

6. Девятко И.Ф. Проблема ориентации искусственного интеллекта на человеческие ценности (AI value alignment) и социология морали // Социологические исследования. 2023. № 9. С. 16–28. DOI: 10.31857/S013216250027775-5 EDN: QVKPLQ

7. Кант И. Критика практического разума / Пер. Н.М. Соколова // Кант И. Сочинения. В 8 т. / Под общ. ред. А.В. Гулыги. М.: ЧОРО, 1994. Т. 4. С. 373–479.

8. Кант И. Основоположения метафизики нравов / Пер. Л.Д.Б. // Кант И. Сочинения. В 8 т. / Под общ. ред. А.В. Гулыги. М.: ЧОРО, 1994. Т. 4. С. 153–246.

9. Катерный И.В. Каузальные объяснения эффекта «зловещей долины» в робототехнике: теории и исследовательские данные // Качество и жизнь. 2017. № 4. С. 88–96 EDN: YOPGDD

10. Корбут А.М. Одомашнивание искусственного интеллекта: умные колонки и трансформация повседневной жизни // Мониторинг общественного мнения: экономические и социальные перемены. 2021. № 1. С. 193–216. DOI: 10.14515/monitoring.2021.1.1808 EDN: TKKKDP

11. Максимова А.С. Настройка собеседника: интеракционные барьеры в телефонном разговоре с роботом // Приключения технологий: барьеры цифровизации в России / Л.В. Земнухова и др. М., СПб.: ФНИСЦ РАН, 2020. C. 95–132. DOI: 10.31119/978-5-89697-339-3

12. Нарьян С.К., Быков А.В. Проблема моральной агентности акторов: перспективы социологического подхода в контексте теории «моральной диады» // Социологический журнал. 2022. Т. 28. № 1. С. 8–23. DOI: 10.19181/socjour.2022.28.1.8835 EDN: NIJSPT

13. Хонинева Е.А. Гендер и дисплей: коммуникативные жанры и способы категоризации во взаимодействии с голосовыми ассистентами // Журнал социологии и социальной антропологии. 2017. Т. 20. № 5. С. 95–112. DOI: 10.31119/jssa.2017.20.5.6 EDN: ZVMKGF

14. Широкова М. К роботам-курьерам отнеслись по-человечески, 30.11.2023 // Коммерсантъ [электронный ресурс]. Дата обращения 02.01.2025. URL: https://www.kommersant.ru/doc/6366826

15. Шталь Б.К., Шредер Д., Родригес Р. Этика искусственного интеллекта: кейсы и варианты решения этических проблем / Пер. с англ.; Науч. ред. А. Павлов. М.: Издательский дом ВШЭ, 2024. — 200 с. DOI: 10.17323/978-5-7598-2981-2 EDN: WYWKGL

16. Abend G. Thick Concepts and the Moral Brain. European Journal of Sociology. 2011. Vol. 52. No. 1. P. 143–172. DOI: 10.1017/S0003975611000051

17. Awad E., Dsouza S., Kim R., et. al. The Moral Machine Experiment. Nature. 2018. Vol. 563. P. 59–64. DOI: 10.1038/s41586-018-0637-6

18. Banks J. A Perceived Moral Agency Scale: Development and Validation of a Metric for Humans and Social Machines. Computers in Human Behavior. 2019. Vol. 90. P. 363–371. DOI: 10.1016/j.chb.2018.08.028

19. Banks J. From Warranty Voids to Uprising Advocacy: Human Action and the Perceived Moral Patiency of Social Robots. Frontiers in Robotics and AI. 2021. Vol. 8. Art. 670503. DOI: 10.3389/frobt.2021.670503

20. Banks J., Bowman N.D. Perceived Moral Patiency of Social Robots: Explication and Scale Development. International Journal of Social Robotics. 2023. Vol. 15. No. 1. P. 101–113. DOI: 10.1007/s12369-022-00950-6

21. Bartneck C., Keijsers M. The Morality of Abusing a Robot. Paladyn, Journal of Behavioral Robotics. 2020. Vol. 11. No. 1. P. 271–283. DOI: 10.1515/pjbr-2020-0017

22. Basl J., Sandler R. Three Puzzles Regarding the Moral Status of Synthetic Organisms. Synthetic Biology and Morality: Artificial Life and the Bounds of Nature. Ed. by G.E. Kaebnick, T.H. Murray. Cambridge, MA: MIT Press, 2013. P. 89–106. DOI: 10.7551/mitpress/9780262019392.003.0009

23. Bertoncini A.L.C., Serafim M.C. Ethical Content in Artificial Intelligence Systems: A Demand Explained in Three Critical Points. Frontiers in Psychology. 2023. Vol. 14. Art. 1074787. DOI: 10.3389/fpsyg.2023.1074787

24. Bigman Y.E., Gray K. People Are Averse to Machines Making Moral Decisions. Cognition. 2018. No. 181. P. 21–34. DOI: 10.1016/j.cognition.2018.08.003

25. Brożek B., Janik B. Can Artificial Intelligences Be Moral Agents? New Ideas in Psychology. 2019. Vol. 54. P. 101–106. DOI: 10.1016/j.newideapsych.2018.12.002

26. Cervantes J.-A., Lopez S., Rodriguez L.-F., et. al. Artificial Moral Agents: A Survey of the Current Status. Science and Engineering Ethics. 2020. Vol. 26. No. 2. P. 501–532. DOI: 10.1007/s11948-019-00151-x

27. Choi T.R., Drumwright M.E. “OK, Google, Why Do I Use You?” Motivations, Post-Consumption Evaluations, and Perceptions of Voice AI Assistants. Telematics and Informatics. 2021. Vol. 62. Art. 101628. DOI: 10.1016/j.tele.2021.101628

28. Coeckelbergh M. Artificial Intelligence, Responsibility Attribution, and a Relational Justification of Explainability. Science and Engineering Ethics. 2020. Vol. 26. No. 4. P. 2051–2068. DOI: 10.1007/s11948-019-00146-8

29. Colombatto C., Fleming S. Folk Psychological Attributions of Consciousness to Large Language Models. Neuroscience of Consciousness. 2024. No. 1, Art. niae013. DOI: 10.1093/nc/niae013

30. DeGrazia D. Moral Status as a Matter of Degree? Southern Journal of Philosophy. 2008. Vol. 46. No. 2. P. 181–198 DOI: 10.1111/j.2041-6962.2008.tb00075.x

31. DeGrazia D. Robots with Moral Status? Perspectives in Biology and Medicine. 2022. Vol. 65. No. 1. P. 73–88. DOI: 10.1353/pbm.2022.0004

32. Dong M., Bocian K. Responsibility Gaps and Self-Interest Bias: People Attribute Moral Responsibility to AI for Their Own but not Others’ Transgressions. Journal of Experimental Social Psychology. 2024. Vol. 111. Art. 104584. DOI: 10.1016/j.jesp.2023.104584

33. Formosa P., Ryan M. Making Moral Machines: Why We Need Artificial Moral Agents. AI & SOCIETY. 2021. Vol. 36. No. 3. P. 839–851. DOI: 10.1007/s00146-020-01089-6

34. Friedman C. Human-Robot Moral Relations: Human Interactants as Moral Patients of Their Own Agential Moral Actions Towards Robots. Artificial Intelligence Research. SACAIR 2021. Communications in Computer and Information Science. Ed. by A. Gerber. 2020. Vol 1342. P. 3–20. DOI: 10.1007/978-3-030-66151-9_1

35. Fritz A., Brandt W., Gimpel H., et. al. Moral Agency without Responsibility? Analysis of Three Ethical Models of Human-Computer Interaction in Times of Artificial Intelligence (AI). De Ethica. 2020. Vol. 6. No. 1. P. 3–22. DOI: 10.3384/de-ethica.2001-8819.20613

36. Gamez P., Shank D.B., Arnold C., North M. Artificial Virtue: The Machine Question and Perceptions of Moral Character in Artificial Moral Agents. AI & SOCIETY. 2020. Vol. 35. No. 4. P. 795–809. DOI: 10.1007/s00146-020-00977-1

37. Hitlin S., Vaisey S. The New Sociology of Morality. Annual Review of Sociology. 2013. Vol. 39. No. 1. P. 51–68. DOI: 10.1146/annurev-soc-071312-145628

38. Ikari S., Sato K., Burdett E., et. al. Religion-Related Values Differently Influence Moral Attitude for Robots in the United States and Japan. Journal of Cross-Cultural Psychology. 2023. Vol. 54. No. 6–7. P. 742–759 DOI: 10.1177/00220221231193369

39. Korsgaard C. The Sources of Normativity. Cambridge: Cambridge University Press, 1996. 273 p. DOI: 10.1017/CBO9780511554476

40. Laakasuo M., Herzon V., Perander S., et. al. Socio-Cognitive Biases in Folk AI Ethics and Risk Discourse. AI and Ethics. 2021. Vol. 1. No. 4. P. 593–610. DOI: 10.1007/s43681-021-00060-5

41. Mittelstadt B.D., Allo P., Taddeo M., et. al. The Ethics of Algorithms: Mapping the Debate. Big Data & Society. 2016. Vol. 3. No. 2. Art. 205395171667967. DOI: 10.1177/2053951716679679

42. Moosavi P. Will Intelligent Machines Become Moral Patients? Philosophy and Phenomenological Research. 2023. Vol. 109. No. 1. P. 95–116. DOI: 10.1111/phpr.13019

43. O’Leary D.E. GOOGLE’S Duplex: Pretending to Be Human. Intelligent Systems in Accounting Finance & Management. 2019. Vol. 26. No. 1. P. 46–53. DOI: 10.1002/isaf.1443

44. Pause Giant AI Experiments: An Open Letter, 23.03.2023. Future of Life Institute. Accessed 09.01.2025. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

45. Redaelli R. Different Approaches to the Moral Status of AI: A Comparative Analysis of Paradigmatic Trends in Science and Technology Studies. Discover Artificial Intelligence. 2023. Vol. 3. No. 1. Art. 25. DOI: 10.1007/s44163-023-00076-2

46. Scheessele M. A Framework for Grounding the Moral Status of Intelligent Machines. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society. Ed. by J. Furman, G. Marchant, H. Price, F. Rossi. N.-Y.: Association for Computing Machinery, 2018. P. 215–256 DOI: 10.1145/3278721.3278743

47. Shank D.B., DeSanti A., Maninger T. When Are Artificial Intelligence Versus Human Agents Faulted for Wrongdoing? Moral Attributions after Individual and Joint Decisions. Information, Communication & Society. 2019. Vol. 22. No. 5. P. 648–663. DOI: 10.1080/1369118X.2019.1568515

48. Shevlin H. How Could We Know When a Robot Was a Moral Patient? Cambridge Quarterly of Healthcare Ethics. 2021. Vol. 30. No. 3. P. 459–471. DOI: 10.1017/S0963180120001012

49. Smiley L. The Legal Saga of Uber’s Fatal Self-Driving Car Crash is Over. Wired. Jul 28, 2023. Accessed 25.12.2024. URL: https://www.wired.com/story/ubers-fatal-self-driving-car-crash-saga-over-operator-avoids-prison/

50. Sparrow R. Why Machines Cannot Be Moral. AI & SOCIETY. 2021. Vol. 36. No. 3. P. 685–693. DOI: 10.1007/s00146-020-01132-6

51. Sullivan Y.W., Fosso Wamba S. Moral Judgments in the Age of Artificial Intelligence. Journal of Business Ethics. 2022. Vol. 178. No. 4. P. 917–943. DOI: 10.1007/s10551-022-05053-w

52. The Nobel Prize in Chemistry 2024. Press-release, 09.10.2024. The Royal Swedish Academy of Sciences. Accessed 01.02.2025. URL.: https://www.nobelprize.org/prizes/chemistry/2024/press-release/

53. Tsamados A., Aggarwal N., Cowls J., et. al. The Ethics of Algorithms: Key Problems and Solutions. Ethics, Governance, and Policies in Artificial Intelligence. Ed. by L. Floridi. Springer, 2021. P. 97–123. DOI: 10.1007/978-3-030-81907-1_8
Статья

Поступила: 12.09.2024

Опубликована: 23.03.2025

Форматы цитирования
Другие форматы цитирования:

ACM
[1]
Аганова, А.В. и Катерный, И.В. 2025. Моральный статус искусственного интеллекта: в поисках социологической перспективы. Социологический журнал. 31, 1 (мар. 2025), 92-109. DOI:https://doi.org/10.19181/socjour.2025.31.1.5.
Раздел
ПРИГЛАШЕНИЕ К ДИСКУССИИ