Анализ риск-ориентирован ного подхода в проекте Регламента ЕС об искусственном интеллекте

Ключевые слова: искусственный интеллект, системы ИИ, большие языковые модели, гене-ративные системы ИИ, базовые модели, системы ИИ общего назначения, проект Регламента ЕС об ИИ, риск-ориентированный подход, процедура оценки соответствия систем ИИ, аудит систем ИИ

Аннотация

В статье анализируется риск-ориентированный подход, который лежит в основе проекта Регламента ЕС об ИИ. Предполагается, что данный акт будет принят до конца 2023 года и станет центральным звеном в системе правого регулирования отношений, связанных разработкой и применением систем искусственного интеллекта в Европейском союзе. Вместе с тем постоянное изменение технологических реалий создает новые проблемы и вызовы для законодателей, сбалансированное решение которых займет еще годы. Также широкое распространение за последний год базовых моделей и систем искуственного интеллекта общего назначения потребует доработки первоначальной концепции риск-ориентированного подхода. В настоящем исследовании проанализированы общие проблемы, присущие риск-ориентированному подходу, такие как определение круга систем искусственного интеллекта, их классификация по уровням риска для прав человека, а также распространение оптимального набора юридических требований для каждой группы таких систем. Делается вывод, что для более гибкого подхода к нормативному правовому регулированию необходимо дифференцировать требования как по уровням риска, так и по всем этапам их жизненного цикла и уровням автономности. Отдельно анализи руются проблемы распространения риск-ориентированного подхода на базовые модели и системы искусственного интеллекта общего назначения.      

Биографии авторов

Дмитрий Кутейников, Институт государства и права Тюменского государственного университета
кандидат юридических наук
Osman Izhaev, Tyumen State University

Candidate of Sciences (Law), Senior Researcher

Литература

Bradford A. (2012) The Brussels Effect. Northwestern University Law Review, vol. 107, no. 1, pp. 1–64.

Chamberlain J. (2023) The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective. European Journal of Risk Regulation, vol. 14, no. 1, pp. 1–13. DOI: https://doi.org/10.1017/err.2022.38

Gstrein O. (2022) European AI Regulation: Brussels Effect versus Human Dignity? Zeitschrift für Europarechtliche Studien, vol. 4, pp. 755–772. DOI: https://doi.org/10.5771/1435-439X-2022-4-755

Greenleaf G. (2021) The “Brussels Effect” of the EU’s “AI Act” on Data Privacy Outside Europe. Privacy Laws & Business International Report, issue 171, pp. 3–7.

Hacker P. (2021) A legal framework for AI training data—from first principles to the Artificial Intelligence Act. Law, Innovation and Technology, vol. 13, no. 2, pp. 257–301. DOI: https://doi.org/10.1080/17579961.2021.1977219

Mahler T. (2021) Between risk management and proportionality: The risk-based approach in the EU’s Artificial Intelligence Act Proposal. In: Publicerad i Nordic Yearbook of Law and Informatics 2020–2021: Law in the Era of Artificial Intelligence, Mars, pp. 247–270. DOI: https://doi.org/10.53292/208f5901.38a67238

Mökander J. et al. (2023) Operationalising AI governance through ethics-based auditing: an industry case study. AI and Ethics, vol. 3, issue 2, pp. 451–468. DOI: https://doi.org/10.1007/s43681-022-00171-7

Mökander J. et al. (2022) Conformity Assessments and Post-market Monitoring: A Guide to the Role of Auditing in the Proposed European AI Regulation. Minds & Machines, vol. 32, issue 2, pp. 241–268. DOI: https://doi.org/10.1007/s11023-021-09577-4

Mökander J. et al. (2021) Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations. Science and Engineering Ethics, vol. 27, issue 4, pp. 1–30. DOI: https://doi.org/10.1007/s11948-021-00319-4

Mökander J. et al. (2023) Auditing large language models: a threelayered approach. Available at: https://doi.org/10.1007/s43681-023-00289-2 DOI: https://doi.org/10.2139/ssrn.4361607

Neuwirth R. (2023) The EU Artificial Intelligence Act: Regulating Subliminal AI Systems. L.: Routledge, 144 p. DOI: https://doi.org/10.4324/9781003319436

Neuwirth R. (2023) Prohibited artificial intelligence practices in the proposed EU Artificial Intelligence Act (AIA). Computer Law & Security Review, vol. 48, pp. 1–41. DOI: https://doi.org/10.1016/j.clsr.2023.105798

Novelli C. et. al. (2023) Taking AI risks seriously: a new assessment model for the AI Act. AI & Society, vol. 38, no. 3, pp. 1–5. DOI: https://doi.org/10.1007/s44206-024-00095-1

Pataranutaporn P. et. al. (2023) Influencing human–AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nat Mach Intell. Available at: https://doi.org/10.1038/s42256-023-00720-7. DOI: https://doi.org/10.1038/s42256-023-00720-7

Schuett J. (2023) Risk Management in the Artificial Intelligence Act. European Journal of Risk Regulation, February, pp. 1–19. DOI: https://doi.org/10.1017/err.2023.1

Solaiman I. (2023) The Gradient of Generative AI Release: Methods and Considerations. In: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency. N.Y.: Association for Computing Machinery, p. 111–122. DOI: https://doi.org/10.1145/3593013.3593981

Veale M. et. al. (2021) Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, vol. 22, issue 4, pp. 97–112. DOI: https://doi.org/10.9785/cri-2021-220402

Vetter D. et. al. (2023) Lessons Learned from Assessing Trustworthy AI in Practice. Digital Society, vol. 2, issue 3, pp. 1–25. DOI: https://doi.org/10.1007/s44206-023-00063-1

Опубликован
2023-10-31
Как цитировать
КутейниковД., & IzhaevO. (2023). Анализ риск-ориентирован ного подхода в проекте Регламента ЕС об искусственном интеллекте. Legal Issues in the Digital Age, 4(3), 97-116. https://doi.org/10.17323/2713-2749.2023.3.97.116