Этика искусственного интеллекта в России и Европейском союзе: общее в риск-ориентированных подходах
УДК 004.8+172.4
Сорокова Е.Д. Этика искусственного интеллекта в России и Европейском союзе: общее в риск-ориентированных подходах // Дискурс-Пи. 2022. Т. 19. № 3. С. 157-169. DOI: 10.17506/18179568_2022_19_3_157. список ВАК
Повышенное внимание к этическим аспектам создания и применения искусственного интеллекта во многом продиктовано интенсивностью социальноэкономической трансформации под влиянием цифровых технологий. Приоритеты и направления развития технологий искусственного интеллекта зафиксированы в ряде стратегических документов Российской Федерации и Европейского союза. В статье выделяются некоторые общие черты риск-ориентированных подходов России и ЕС к разработке, внедрению и использованию искусственного интеллекта на примере двух документов, выпущенных в 2021 г.: Кодекса этики в сфере искусственного интеллекта и проекта Регламента о гармонизации правил, применяемых к системам искусственного интеллекта. Автор анализирует эти документы по ряду критериев: человеко-центрированность и гуманистичность; степени риска; система взаимодействия акторов и место саморегулирования в ней; опора на экспертные знания; тенденция к эволюции «мягких» форм регулирования в более обязывающие. По результатам исследования выявляется ряд общих черт российского и европейского подходов к этике искусственного интеллекта, отраженных в данных документах (при этом формальные и содержательные различия не являются объектом анализа в данной статье). Делается вывод, что этическое регулирование выступает способом реагирования государственных и негосударственных акторов на глобальные технологические риски, связанные с искусственным интеллектом. Оно гармонично дополняет развитие нормативно-правового регулирования и позволяет снизить неопределенность для всех акторов искусственного интеллекта, определяя на высоком уровне обобщения рамки допустимых антропологических и иных гуманитарных последствий их действий.
Socio-economic transformation propelled by digital technologies has drawn increased attention to ethical aspects of the creation and application of artificial intelligence. Priorities and directions of AI technologies development are fixed in a range of strategic documents both in the Russian Federation and in the European Union. The article highlights several common features of risk-oriented approaches of Russia and the EU to the development, implementation, and use ofAI on the example of two documents published in 2021 – the Code of Ethics in the Field of Artificial Intelligence and the Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence. The author analyzes the documents following a set of criteria: human-centricity and humanism; degrees of risk; the system of interaction of AI actors, and the role of self-regulation in it; reliance on expert knowledge; the tendency for the evolution of “soft law” into more binding norms. The results of the study reveal a few commonalities between the Russian and European risk-oriented approaches to AI ethics (formal and substantive differences are not the object of analysis in this article). It is concluded that ethical regulation is a way state and non-state actors respond to global technological risks associated with artificial intelligence. It harmoniously complements the development of legal regulation and reduces uncertainty for all AI actors, as it defines the scope of permissible anthropological and other humanitarian consequences of their actions at a high level of generalization.
*Доклад был сделан автором на Всероссийской научной конференции с международным участием «Философские контексты современности: искусственный интеллект и интеллектуальная интуиция» (ФИКОС-2022), 25–26 февраля 2022 г., Ижевск, Россия.
этика искусственного интеллекта, Европейский союз, Россия, международное регулирование искусственного интеллекта, глобальные технологические риски
AI ethics, the European Union, Russia, international regulation of artificial intelligence, global technological risks