Анализ риск-ориентирован ного подхода в проекте Регламента ЕС об искусственном интеллекте
Аннотация
В статье анализируется риск-ориентированный подход, который лежит в основе проекта Регламента ЕС об ИИ. Предполагается, что данный акт будет принят до конца 2023 года и станет центральным звеном в системе правого регулирования отношений, связанных разработкой и применением систем искусственного интеллекта в Европейском союзе. Вместе с тем постоянное изменение технологических реалий создает новые проблемы и вызовы для законодателей, сбалансированное решение которых займет еще годы. Также широкое распространение за последний год базовых моделей и систем искуственного интеллекта общего назначения потребует доработки первоначальной концепции риск-ориентированного подхода. В настоящем исследовании проанализированы общие проблемы, присущие риск-ориентированному подходу, такие как определение круга систем искусственного интеллекта, их классификация по уровням риска для прав человека, а также распространение оптимального набора юридических требований для каждой группы таких систем. Делается вывод, что для более гибкого подхода к нормативному правовому регулированию необходимо дифференцировать требования как по уровням риска, так и по всем этапам их жизненного цикла и уровням автономности. Отдельно анализи руются проблемы распространения риск-ориентированного подхода на базовые модели и системы искусственного интеллекта общего назначения.Литература
Bradford A. (2012) The Brussels Effect. Northwestern University Law Review, vol. 107, no. 1, pp. 1–64.
Chamberlain J. (2023) The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective. European Journal of Risk Regulation, vol. 14, no. 1, pp. 1–13. DOI: https://doi.org/10.1017/err.2022.38
Gstrein O. (2022) European AI Regulation: Brussels Effect versus Human Dignity? Zeitschrift für Europarechtliche Studien, vol. 4, pp. 755–772. DOI: https://doi.org/10.5771/1435-439X-2022-4-755
Greenleaf G. (2021) The “Brussels Effect” of the EU’s “AI Act” on Data Privacy Outside Europe. Privacy Laws & Business International Report, issue 171, pp. 3–7.
Hacker P. (2021) A legal framework for AI training data—from first principles to the Artificial Intelligence Act. Law, Innovation and Technology, vol. 13, no. 2, pp. 257–301. DOI: https://doi.org/10.1080/17579961.2021.1977219
Mahler T. (2021) Between risk management and proportionality: The risk-based approach in the EU’s Artificial Intelligence Act Proposal. In: Publicerad i Nordic Yearbook of Law and Informatics 2020–2021: Law in the Era of Artificial Intelligence, Mars, pp. 247–270. DOI: https://doi.org/10.53292/208f5901.38a67238
Mökander J. et al. (2023) Operationalising AI governance through ethics-based auditing: an industry case study. AI and Ethics, vol. 3, issue 2, pp. 451–468. DOI: https://doi.org/10.1007/s43681-022-00171-7
Mökander J. et al. (2022) Conformity Assessments and Post-market Monitoring: A Guide to the Role of Auditing in the Proposed European AI Regulation. Minds & Machines, vol. 32, issue 2, pp. 241–268. DOI: https://doi.org/10.1007/s11023-021-09577-4
Mökander J. et al. (2021) Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations. Science and Engineering Ethics, vol. 27, issue 4, pp. 1–30. DOI: https://doi.org/10.1007/s11948-021-00319-4
Mökander J. et al. (2023) Auditing large language models: a threelayered approach. Available at: https://doi.org/10.1007/s43681-023-00289-2 DOI: https://doi.org/10.2139/ssrn.4361607
Neuwirth R. (2023) The EU Artificial Intelligence Act: Regulating Subliminal AI Systems. L.: Routledge, 144 p. DOI: https://doi.org/10.4324/9781003319436
Neuwirth R. (2023) Prohibited artificial intelligence practices in the proposed EU Artificial Intelligence Act (AIA). Computer Law & Security Review, vol. 48, pp. 1–41. DOI: https://doi.org/10.1016/j.clsr.2023.105798
Novelli C. et. al. (2023) Taking AI risks seriously: a new assessment model for the AI Act. AI & Society, vol. 38, no. 3, pp. 1–5. DOI: https://doi.org/10.1007/s44206-024-00095-1
Pataranutaporn P. et. al. (2023) Influencing human–AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness. Nat Mach Intell. Available at: https://doi.org/10.1038/s42256-023-00720-7. DOI: https://doi.org/10.1038/s42256-023-00720-7
Schuett J. (2023) Risk Management in the Artificial Intelligence Act. European Journal of Risk Regulation, February, pp. 1–19. DOI: https://doi.org/10.1017/err.2023.1
Solaiman I. (2023) The Gradient of Generative AI Release: Methods and Considerations. In: Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency. N.Y.: Association for Computing Machinery, p. 111–122. DOI: https://doi.org/10.1145/3593013.3593981
Veale M. et. al. (2021) Demystifying the Draft EU Artificial Intelligence Act. Computer Law Review International, vol. 22, issue 4, pp. 97–112. DOI: https://doi.org/10.9785/cri-2021-220402
Vetter D. et. al. (2023) Lessons Learned from Assessing Trustworthy AI in Practice. Digital Society, vol. 2, issue 3, pp. 1–25. DOI: https://doi.org/10.1007/s44206-023-00063-1
Авторы, присылающие рукописи для рассмотрения к публикации в Журнале, принимают Политику лицензирования, авторских прав, открытого доступа и использования репозиториев.