ЭТИКА, БЕЗОПАСНОСТЬ И ОТВЕТСТВЕННОСТЬ В РЕГУЛИРОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА МЕЖДУНАРОДНОМ УРОВНЕ
Секция: Международное право
XCIV Международная научно-практическая конференция «Научный форум: юриспруденция, история, социология, политология и философия»
ЭТИКА, БЕЗОПАСНОСТЬ И ОТВЕТСТВЕННОСТЬ В РЕГУЛИРОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА МЕЖДУНАРОДНОМ УРОВНЕ
ETHICS, SAFETY AND RESPONSIBILITY IN THE REGULATION OF ARTIFICIAL INTELLIGENCE AT THE INTERNATIONAL LEVEL
Valentin Glushkov
Student, Kuzbass Humanitarian Pedagogical Institute of the Federal State Budgetary Educational Institution of Higher Education "Kemerovo State University", Russia, Kemerovo
Inga Tomilova
Scientific supervisor, Kuzbass Humanitarian Pedagogical Institute of the Federal State Budgetary Educational Institution of Higher Education "Kemerovo State University", Russia, Kemerovo
Аннотация. Статья посвящена рассмотрению вопросов регулирования искусственного интеллекта (ИИ) в контексте международного права. В работе анализируются существующие правовые механизмы, договоры и декларации, а также исследуются перспективы разработки новых нормативных актов, регулирующих ИИ на международном уровне. Особое внимание уделено вопросам этики, безопасности и ответственности, возникающим в связи с внедрением ИИ. В результате исследования делаются выводы о необходимости более активного участия государств в формировании международно-правовых стандартов в данной сфере.
Abstract. The article is devoted to the consideration of issues of regulation of artificial intelligence (AI) in the context of international law. The paper analyzes existing legal mechanisms, treaties and declarations, as well as explores the prospects for the development of new regulations governing AI at the international level. Special attention is paid to the issues of ethics, safety and responsibility arising from the introduction of AI. As a result of the study, conclusions are drawn about the need for more active participation of states in the formation of international legal standards in this area.
Ключевые слова: ИИ, нормативные акты, международное право, анализ.
Keywords: AI, regulations, international law, analysis.
Искусственный интеллект (далее – ИИ) становится важной частью современной цифровой экономики и общества, проникая в различные сферы деятельности, в связи с этим возникают новые вызовы для правовой системы, требующие международного регулирования. Международное право, как инструмент глобального управления, должно быть адаптировано к современным вызовам, включая вопросы, связанные с развитием и использованием ИИ. Настоящая статья рассматривает основные проблемы международно-правового регулирования ИИ, анализируя существующие и предлагаемые нормативные акты, а также предлагая возможные пути их развития.
На сегодняшний день в международной правовой системе отсутствует единый всеобъемлющий договор, который бы регулировал использование и развитие искусственного интеллекта на глобальном уровне. Тем не менее, различные международные организации и союзы предпринимают шаги по созданию правовых рамок для регулирования технологий ИИ, стараясь охватить как этические, так и юридические аспекты его применения. Эти усилия включают работу над рекомендациями, декларациями и законопроектами, которые закладывают основы для будущего регулирования.
Одним из ключевых международных документов в этой области является Рекомендация ЮНЕСКО по этике ИИ 2021 года [6]. Этот документ подчеркивает важность прозрачности, подотчетности и справедливости при разработке и применении систем ИИ. Рекомендация включает положения, касающиеся прав человека, призывая государства обеспечить, механизм внедрения ИИ, не нарушающий основные права и свободы человека и гражданина. В документа сделан акцент на предотвращении дискриминации и предвзятости в алгоритмах, а также необходимость создания механизмов контроля за деятельностью ИИ, что в свою очередь предполагает разработку независимых органов для мониторинга и аудита ИИ-систем, а также создание нормативной базы по регулированию.
Европейский Союз (далее – ЕС) занимает лидирующую позицию в разработке регламентирующей правовой базы для ИИ. В 2021 году Европейская комиссия предложила Законопроект об искусственном интеллекте [2] (далее – AI Act), который вводит новый подход к регулированию ИИ на основе оценки рисков. Законопроект разделяет ИИ-системы на несколько категорий в зависимости от уровня риска, который они представляют для общества и прав человека. Наибольшие требования предъявляются к высоко рисковым ИИ-системам, которые могут оказывать прямое влияние на здоровье, безопасность и основные права граждан. Например, ИИ, используемый в критической инфраструктуре, медицине, транспорте и правоприменении, будет подлежать строгому регулированию, включая обязательную сертификацию и мониторинг. Для ИИ-систем с низким уровнем риска предполагаются минимальные требования, такие как обеспечение прозрачности алгоритмов.
Также стоит отметить усилия Совета Европы, который ведет работу по созданию правовых стандартов в сфере ИИ в рамках Конвенции о защите прав человека и основных свобод [1]. В 2022 году Совет выпустил Рекомендации по этике для заслуживающего доверия ИИ [7], которое дополняет существующие международные нормы по правам человека и предлагает конкретные правовые механизмы для защиты прав граждан в условиях роста применения ИИ. В руководстве подчеркивается, что государства должны принимать меры для предотвращения злоупотреблений ИИ, например, незаконного слежения или дискриминации.
Наряду с этим, Организация Объединенных Наций (ООН) инициировала создание Глобального договора по цифровой безопасности и защите данных, который включает положения о регулировании ИИ с точки зрения безопасности и конфиденциальности данных [8]. ООН стремится создать глобальную платформу для обсуждения и разработки правовых норм, касающихся как этики, так и безопасности ИИ, уделяя особое внимание трансграничному сотрудничеству и обмену информацией между государствами.
Таким образом, хотя на данный момент отсутствует единый универсальный международный правовой акт, специально регулирующий ИИ, в различных юрисдикциях и международных организациях наблюдается активное развитие нормативной базы для решения этих вопросов. Тем не менее, существует необходимость в создании более скоординированного и интегрированного подхода, который бы обеспечивал защиту прав человека и безопасности на глобальном уровне, одновременно способствуя инновациям и развитию технологий ИИ.
Одним из ключевых вопросов, связанных с развитием и использованием искусственного интеллекта, является проблема распределения ответственности за действия, совершённые ИИ-системами. В отличие от традиционных технологий, ИИ обладает способностью принимать автономные решения и обучаться на основе данных, что делает трудным определение субъектов, ответственных за возможные ошибки или ущерб. В международном праве данный аспект ещё не получил должного отражения, что создаёт значительные правовые пробелы и вызывает необходимость разработки новых правовых механизмов, учитывающих особенности ИИ.
Одним из примеров правовой неопределённости является проблема, связанная с определением того, кто несёт ответственность за ущерб, причинённый ИИ: разработчик, поставщик программного обеспечения, владелец или пользователь системы? Эти вопросы особенно актуальны в контексте использования ИИ в критически важных областях, таких как здравоохранение, транспорт и правоохранительная деятельность, где ошибки или сбои могут иметь серьёзные последствия для жизни и здоровья людей. Международное право на данный момент не предлагает универсального решения этой проблемы, что приводит к появлению различных подходов на национальном уровне в данном вопросе.
Некоторые страны уже сделали определенные шаги в направлении регулирования этих вопросов. Например, Германия внесла изменения касающиеся регулирования использования автономных систем, включая искусственный интеллект в транспортных средствах и другие связанные с ними нормативные акты, Закон о дорожном движении (Straßenverkehrsgesetz, StVG) [4].
Изменения в Законе предусмотривают возможность использования автономных транспортных средств уровня 4 в ограниченных операционных условиях. Кроме того, уточняется распределение ответственности между оператором автономного транспортного средства, его владельцем и производителем (в том числе разработчиком ИИ), а также вводятся требования к оборудованию транспортных средств, обеспечивающие их безопасность и обязательному наличию дистанционного оператора, который может вмешаться в управление в случае необходимости.
Эти изменения создали основу для правового регулирования эксплуатации автономных транспортных средств и подняли вопрос, касающийся распределения ответственности в случае аварий или технических сбоев, что является важным шагом в контексте регулирования ИИ в транспортной сфере.
Ещё одним примером регулирования использования искусственного интеллекта в правовой системе является Закон Франции о цифровых технологиях (Loi pour une République numérique) [5], принятый в 2016 году и дополненный рядом нормативных актов, касающихся ИИ. Данный закон охватывает несколько направлений регулирования ИИ, включая управление данными, ответственность за цифровые системы и защита персональных данных и формирует основу для регулирования использования искусственного интеллекта, особенно в контексте данных и ответственности за цифровые решения.
Основные положения, которые имеют отношение к управлению данными, защите персональных данных и цифровым системам, отражены в следующих статьях:
Управление данными (ст. 6, 7-1) Открытость и повторное использование данных. Эти статьи регулируют доступ к открытым данным, обязывая государственные учреждения предоставлять данные для публичного использования, что является важным шагом для использования данных в обучении ИИ. Введение механизма данных общедоступных сетей и обязательство публикации определённых наборов данных (ст. 17).
Ответственность за цифровые системы и автоматизированные системы ИИ (ст. 19). Статья предусматривает внедрение стандартов для платформ и цифровых систем, влияющих на обеспечение безопасности и устойчивости. (ст. 47) Статья обязывает операторов цифровых платформ предоставлять информацию о работоспособности алгоритмов, обеспечивая прозрачность для пользователей. 3. Защита персональных данных. (ст. 20) Статья предполагает ужесточение требований по обработке и защите персональных данных, регламентом по защите данных (GDPR) [3]. (ст. 32) Статья подробно описание обязательства по информированию пользователей о сборах и обработке их данных, с целью повышения прозрачности их использования, что критично для ИИ-систем.
Одним из важных аспектов, который необходимо учитывать при разработке международных правовых норм, является проблема безопасности ИИ. Искусственный интеллект может быть использован не только для благих целей, но и для кибератак, слежения, дискриминации и других незаконных действий. ООН и другие международные организации не единожды высказывали опасения по поводу того, что ИИ может быть использован для нарушения прав человека и стать инструментом для манипуляции поведения людей.
На сегодняшний день вопрос безопасности систем ИИ обсуждается в контексте разработки международных соглашений, направленных на предотвращение их использования для агрессивных или незаконных целей. Примером является инициатива Организации Объединённых Наций по разработке Глобального договора о цифровой безопасности, который рассматривает ИИ как один из факторов, потенциально угрожающих мировой безопасности. Этот договор направлен на регулирование использования ИИ в военных и гражданских целях, с акцентом на обеспечение безопасности данных и предотвращение использования ИИ в кибератаках и других формах цифровой агрессии.
Особое внимание в контексте ИИ уделяется этике и прозрачности. Многие международные организации, в частности ЮНЕСКО и Европейский Союз, указывают на необходимость создания стандартов, которые бы регулировали алгоритмы ИИ, делая их более прозрачными и поддающимися контролю. Это включает в себя обязательства по объяснимости решений, принимаемых ИИ-системами, чтобы пользователи и регулирующие органы могли лучше понимать, как именно работает ИИ и какие данные использовались для его обучения. Без таких механизмов будет сложно установить, является ли ошибка или вред, причинённый ИИ, результатом человеческой ошибки или непреднамеренного действия ИИ-системы.
Этические аспекты внедрения ИИ занимают особое место в международных дебатах. Принципы недискриминации, справедливости и транспарентности должны лежать в основе правовых механизмов, регулирующих ИИ. ЮНЕСКО в своих рекомендациях особо подчеркивает важность обеспечения соблюдения прав человека и предотвращения предвзятости алгоритмов.
Таким образом, ключевым вызовом для международного права в сфере ИИ является создание универсальных норм, которые бы не только урегулировали вопросы ответственности, но международные усилия должны быть направлены на формирование согласованных правовых механизмов, которые бы обеспечили баланс между инновациями и необходимостью минимизации рисков, связанных с ИИ.
Международные организации, такие как ООН и ВОИС (Всемирная организация интеллектуальной собственности), также высказываются о необходимости разработки этических стандартов и правовых рамок для регулирования ИИ, с целью минимизации рисков, связанных с автоматизированными решениями, влияющими на социальные и экономические процессы.
Искусственный интеллект открывает новые горизонты для развития экономики и общества, однако его использование требует внимательного правового регулирования на международном уровне. Исследование показало, что существующие международные нормы являются фрагментированными и не обеспечивают полного охвата проблем, связанных с ИИ. В этом контексте необходимо активизировать международные усилия по созданию единого правового пространства для регулирования ИИ, основываясь на принципах этики, ответственности и безопасности.
Будущее международного права в области ИИ зависит от консенсуса между государствами, международными организациями и частными игроками. Совместная работа над новыми правовыми механизмами позволит эффективно управлять рисками, связанными с ИИ, и максимизировать его положительное воздействие на глобальное развитие.