Запретить нельзя регулировать: к вопросу о проблемах регуляции использования ИИ в повседневной жизни общества

Авторы

DOI:

https://doi.org/10.14515/monitoring.2025.3.2661

Ключевые слова:

искусственный интеллект, проблема регуляции, взаимозависимость «человек — алгоритм», формальные и неформальные институты, риски и табу

Аннотация

Статья представляет размышления о том, в какой системе координат может и должно осуществляться регулирование инструментов искусственного интеллекта (ИИ), которые становятся частью повседневной жизни общества. Работа ориентирована на поиск ответа на вопрос: где следует ставить запятую в предложении «запретить нельзя регулировать» в отношении технологий ИИ?

Авторы начинают с общей постановки вопроса, переходя к рассмотрению конкретных проблем, связанных с развитием ИИ (проблемы лжи, проблемы автономных агентов, проблемы «второго перехода» и некоторых других), что позволяет определить сложности, с которыми сталкиваются попытки управлять использованием технологий ИИ. После этого авторы обращаются к характеристике институционального контекста регуляции, выделяя трех ключевых игроков: разработчиков, потребителей и тех, кто определяет «правила игры», — и ставят вопрос о том, какую роль социальные ученые способы играть в деле регуляции ИИ. В заключение авторы формулируют четыре принципа регуляции: 1) следует регулировать не развитие ИИ, а взаимоотношения между людьми, которые изобретают, внедряют и применяют ИИ; 2) следует регулировать не развитие ИИ, а отрицательные эффекты применения инструментов ИИ в повседневности; 3) на первом этапе регуляция должна ориентироваться на развитие инструментов ИИ в конкретных областях, где выгода от замены человека ИИ наиболее очевидна; 4) существует принципиальная разница между регуляцией ИИ в областях, которые соотносятся с экзистенциальными вопросами (где уже сейчас необходимо вводить безусловные запреты), и в областях, которые с ними не соотносятся (где нужно сначала регулировать, а потом — запрещать).

Биографии авторов

Андрей Владимирович Резаев, Ташкентский государственный экономический университет

  • Ташкентский государственный экономический университет, Ташкент, Узбекистан
    • доктор философских наук, профессор, профессор кафедры философии

Наталья Дамировна Трегубова, Санкт-Петербургский государственный университет

  • Санкт-Петербургский государственный университет, Санкт-Петербург, Россия
    • кандидат социологических наук, доцент кафедры сравнительной социологии

Библиографические ссылки

Дуглас М. Риск как судебный механизм // THESIS. 1994. Вып. 5. С. 242-253.

Douglas M. (1994) Risk as a Forensic Resource. THESIS. No. 5. P. 242-253. (In Russ.)

Зубофф Ш. Эпоха надзорного капитализма. Битва за человеческое будущее на новых рубежах власти. М.: Издательство Института Гайдара, 2022.

Zuboff Sh. (2022) The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. Moscow: Gaidar Institute Press. (In Russ.)

О’Нил К. Убийственные большие данные. Как математика превратилась в оружие массового поражения. М.: АСТ, 2018.

O’Neil C. (2018) Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Moscow: AST. (In Russ.)

От искусственного интеллекта к искусственной социальности: новые исследовательские проблемы современной социальной аналитики / под ред. А.В. Резаева. М.: ВЦИОМ, 2020.

Rezaev A.V. (ed.) (2020) Artificial Intelligence on the Way to Artificial Sociality: New Research Agenda for Social Analytics. Moscow: VCIOM.

Резаев, А. В., Трегубова, Н. Д. Возможность и необходимость человеко-Ориентированного искусственного интеллекта в юридической теории и практике // Journal of Digital Technologies and Law. 2023. Т. 1. № 2. С. 564—580. https://doi.org/10.21202/jdtl.2023.24.

Rezaev A. V., Tregubova N. D. (2023) The Possibility and Necessity of the Human-Centered AI in Legal Theory and Practice. Journal of Digital Technologies and Law. Vol. 1. No. 2. P. 564—580. https://doi.org/10.21202/jdtl.2023.24.

Bareis J., Katzenbach C. (2022) Talking AI into Being: The Narratives and Imaginaries of National AI Strategies and Their Performative Politics. Science, Technology, & Human Values. Vol. 47. No. 5. P. 855-881. https://doi.org/10.1177/01622439211030007.

Castelfranchi C. (2000) Artificial liars: Why Computers Will (Necessarily) Deceive Us and Each Other? Ethics and Information Technology. Vol. 2. P. 113—119. https://doi.org/10.1023/A:1010025403776.

Cath C., Wachter S., Mittelstadt B., Taddeo M., Floridi L. (2018) Artificial Intelligence and the ‘Good Society’: The US, EU, and UK Approach. Science and Engeneering Ethics. Vol. 24. P. 505—528. https://doi.org/10.1007/s11948-017-9901-7.

Etzioni A., Etzioni O. (2017) Should Artificial Intelligence Be Regulated? Issues in Science and Technology. Vol. 33. No. 4. P. 32-36.

Greenblatt R., Denison C., Wright B., Roger F., MacDiarmid M., Marks S., Treutlein J., Belonax T., Chen J., Duvenaud D., Khan A., Michael J., Mindermann S., Perez E., Petrini L., Uesato J., Kaplan J., Shlegeris B., Bowman S. R., Hubinger E. (2024) Alignment Faking in Large Language Models. https://doi.org/10.48550/arXiv.2412.14093.

Haidt J. (2024) The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness. New York: Penguin Press.

Jiang B., Tan Z., Nirmal A., Liu, H. (2024) Disinformation Detection: An Evolving Challenge in the Age of LLMs. In: Proceedings of the 2024 SIAM International Conference on Data Mining (SDM). P. 427 — 435. https://doi.org/10.1137/1.9781611978032.50.

Jiang B., Zhao C., Tan Z., & Liu H. (2024) Catching Chameleons: Detecting Evolving Disinformation Generated using Large Language Models. In: Proceedings of 2024 IEEE 6th International Conference on Cognitive Machine Intelligence (CogMI). P. 197-206. https://doi.org/10.1109/CogMI62246.2024.00034.

Lucas J.S., Uchendu A., Yamashita M., Lee J., Rohatgi S., Lee D. (2023) Fighting Fire with Fire: The Dual Role of LLMs in Crafting and Detecting Elusive Disinformation. In: Proceedings of the 2023 Conference on Empirical Methods in Natural Language Processing. P. 14279—14305. https://doi.org/10.18653/v1/2023.emnlp-main.883.

Kissinger H., Schmidt E., Huttenlocher D. (2021) The Age of AI: And Our Human Future. Boston, MA: Little, Brown and Company.

Rezaev A. V. (2021) Twelve Theses on Artificial Intelligence and Artificial Sociality. Monitoring of Public Opinion: Economic and Social Changes. No. 1. P. 20—30. https://doi.org/10.14515/monitoring.2021.1.1894.

Russell S. (2019) Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking.

Russell S., Norvig P. (2016) Artificial Intelligence: A Modern Approach. Harlow: Pearson Education Limited.

Загрузки

Опубликован

2025-07-09

Как цитировать

Резаев, А. В., & Трегубова, Н. Д. (2025). Запретить нельзя регулировать: к вопросу о проблемах регуляции использования ИИ в повседневной жизни общества. Мониторинг общественного мнения: экономические и социальные перемены, (3), 294–311. https://doi.org/10.14515/monitoring.2025.3.2661

Выпуск

Раздел

Точка зрения

Наиболее читаемые статьи этого автора (авторов)

1 2 > >>