РЕГУЛИРОВАНИЕ РИСКОВ, СВЯЗАННЫХ СО ЗЛОНАМЕРЕННЫМ ИСПОЛЬЗОВАНИЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В США, ЕС И КИТАЕ

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

В статье представлен анализ основных механизмов регулирования рисков злонамеренного использования искусственного интеллекта (ЗИИИ) в США, ЕС и КНР. Актуальность проблемы ЗИИИ подтверждена многочисленными данными о применении технологий искусственного интеллекта (ИИ) антисоциальными, преступными акторами, включая террористические. Цель статьи -выявить специфику регулирования рисков злонамеренного использования искусственного интеллекта в США, ЕС и КНР. Установлено, что в США противодействие ЗИИИ еще не выделилось в системные решения на уровне федеральных органов власти, соответствующие меры отдельных штатов и компаний. Речь идет о решениях, которые принимают во внимание растущие риски ЗИИИ в рамках общего регулирования ИИ и безопасности его использования. В ЕС принят первый в мире закон об искусственном интеллекте, который уделяет незначительное внимание проблемам ЗИИИ. Основными инициаторами предложений по противодействию и регулированию рисков в Евросоюзе выступают силовые структуры, такие как Европол. В КНР регулирование рисков ЗИИИ наиболее централизовано и становится темой стратегических документов и законодательных актов. В статье использован системный подход при рассмотрении различных вариантов угроз ЗИИИ и при формулировке выводов исследования.

Об авторах

Д. Ю БАЗАРКИНА

Институт Европы РАН; Санкт-Петербургский государственный университет

Email: bazarkina-icspsc@yandex.ru
Доктор политических наук, ведущий научный сотрудник Отдела исследований европейской интеграции Москва, Россия; Санкт-Петербург, Россия

Е. Н ПАШЕНЦЕВ

Дипломатическая академия МИД России; Санкт-Петербургский государственный университет

Email: icspsc@mail.ru
Доктор исторических наук, профессор, главный научный сотрудник; профессор факультета международных отношений Москва, Россия; Санкт-Петербург, Россия

Е. А МИХАЛЕВИЧ

ПАО «Газпром нефть»; Санкт-Петербургский государственный университет

Email: ekaterina_mikhalevich@mail.ru
Главный специалист Управления организационного развития; инженер-исследователь факультета международных отношений Санкт-Петербург, Россия

Список литературы

  1. Базаркина Д.Ю. (2023) Цифровое десятилетие Европейского союза: цели и промежуточные результаты. Аналитические записки ИЕ РАН. Выпуск 4. С. 89-98. DOI: http://doi.org/10.15211/analytics43420238998
  2. Потемкина О.Ю. (2019) Лучше, чем люди? Политика ЕС в области искусственного интеллекта. Научно-аналитический вестник ИЕ РАН. № 5. С. 16-21. DOI: http://dx.doi.org/10.15211/vestnikieran520191621
  3. Маслова Е.А., Сорокова Е.Д. (2022) Диалектика этики и права в регулировании технологии искусственного интеллекта: опыт ЕС. Современная Европа. № 5(112). С. 19-33. doi: 10.31857/S0201708322050023
  4. Сорокова Е.Д. (2023) Реагирование Европейского союза на глобальные технологические риски: практика и эффективность. Дис. ... канд. полит. наук. МГИМО, Москва. 280 с.
  5. Antunes H.S. (2024) European AI Regulation Perspectives and Trends. Legal Aspects of Autonomous Systems. ICASL 2022. Data Science, Machine Intelligence, and Law. Ed. by D. Moura Vicente, R. Soares Pereira, A. Alves Leal. Vol. 4. Springer, Cham, Switzerland. P. 53-65. DOI: https://doi.org/10.1007/978-3-031-47946-5_4
  6. Bazarkina D. (2023) Current and Future Threats of the Malicious Use of Artificial Intelligence by Terrorists: Psychological Aspects. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev E. Palgrave Macmillan, Cham, Switzerland. P. 251-272. DOI: https://doi.org/10.1007/978-3-031-22552-9_10
  7. Cao L. (2023) AI and data science for smart emergency, crisis and disaster resilience. International Journal of Data Science and Analytics. No. 15. P. 231-246. DOI: https://doi.org/10.1007/s41060-023-00393-w
  8. Dixon R.B.L. (2023) A principled governance for emerging AI regimes: lessons from China, the European Union, and the United States. AI Ethics. No. 3. P. 793-810. DOI: https://doi.org/10.1007/s43681-022-00205-0
  9. Doss C., Mondschein J., Shu D. Wolfson T., Kopecky D., Fitton-Kane V. A., Bush L., Tucker C. (2023) Deepfakes and scientific knowledge dissemination. Scientific Reports. No. 13. 13429. DOI: https://doi.org/10.1038/s41598-023-39944-3
  10. Hemberg E., Zhang L., O’Reilly U.M. (2020) Exploring Adversarial Artificial Intelligence for Autonomous Adaptive Cyber Defense. Adaptive Autonomous Secure Cyber Systems. Ed. by S. Jajodia, G. Cybenko, V. Subrahmanian, V. Swarup, C. Wang, M. Wellman. Springer, Cham, Switzerland. P. 41-61. DOI: https://doi.org/10.1007/978-3-030-33432-1_3
  11. Laux J. (2023) Institutionalised distrust and human oversight of artificial intelligence: towards a democratic design of AI governance under the European Union AI Act. AI & Society. DOI: https://doi.org/10.1007/s00146-023-01777-z
  12. Lukacovic M.N., Sellnow-Richmond D.D. (2023) The COVID-19 Pandemic and the Rise of Malicious Use of AI Threats to National and International Psychological Security. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev. Palgrave Macmillan, Cham, Switzerland. P. 175-201. DOI: https://doi.org/10.1007/978-3-031-22552-9_7
  13. Malatji M., Tolah A. (2024) Artificial intelligence (AI) cybersecurity dimensions: a comprehensive framework for understanding adversarial and offensive AI. AI Ethics. DOI: https://doi.org/10.1007/s43681-024-00427-4
  14. Orwat C., Bareis J., Folberth A., Jahnel J., Wadephul C. (2024) Normative Challenges of Risk Regulation of Artificial Intelligence. Nanoethics. Vol. 18. Article 11. DOI: https://doi.org/10.1007/s11569-024-00454-9
  15. Pashentsev E. (2023) General Content and Possible Threat Classifications of the Malicious Use of Artificial Intelligence to Psychological Security. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev. Palgrave Macmillan, Cham, Switzerland. P. 23-46. DOI: https://doi.org/10.1007/978-3-031-22552-9_2
  16. Pauwels E. (2023) How to Protect Biotechnology and Biosecurity from Adversarial AI Attacks? A Global Governance Perspective. Cyberbiosecurity. Ed. by D. Greenbaum. Springer, Cham, Switzerland. P. 173-184. DOI: https://doi.org/10.1007/978-3-031-26034-6_11
  17. Thomann P.E. (2023) Geopolitical Competition and the Challenges for the European Union of Countering the Malicious Use of Artificial Intelligence. The Palgrave Handbook of Malicious Use of AI and Psychological Security. Ed. by E. Pashentsev. Palgrave Macmillan, Cham, Switzerland. P. 453-486. DOI: https://doi.org/10.1007/978-3-031-22552-9_17
  18. Vassilev A., Oprea A., Fordyce A., Anderson H. (2024) Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations. NIST Artifcial Intelligence (AI) Report, NIST AI 100-2e2023. National Institute of Standards and Technology, Gaithersburg, USA. 99 p. DOI: https://doi.org/10.6028/NIST.AI.100-2e2023
  19. Wells D. (2024) The Next Paradigm-Shattering Threat? Right-Sizing the Potential Impacts of Generative AI on Terrorism. Middle East Institute, Washington, USA. 16 p.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Российская академия наук, 2024