Закон об ИИ — это знаковый нормативный акт, принятый в Европейском союзом, чтобы регулировать разработки и использование технологий искусственного интеллекта.
Содержание
Закон ЕС об ИИ — это комплексная нормативно-правовая база, которая регулирует разработку, вывод на рынок и использование систем искусственного интеллекта в Европейском Союзе. Она применяется как к поставщикам ИИ, так и к развертываниям, и устанавливает четкие юридические обязательства на основе того, как ИИ-системы влияют на отдельных людей, общество и фундаментальные права. Закон продвигает инновации, одновременно защищая здоровье, безопасность и фундаментальные права, устанавливая требования к прозрачности, управлению рисками, надзору за людьми, управлению данными и кибербезопасности на протяжении всего жизненного цикла ИИ.
Закон ЕС об ИИ использует подход, основанный на оценке рисков, то есть системы ИИ регулируются в соответствии с уровнем риска, который они представляют для отдельных людей и общества. Чем выше потенциальный риск, тем строже обязательства, возложенные на поставщиков и организации, развертывающие ИИ.
Нарушение Закона об ИИ может привести к штрафам в размере до 35 миллионов евро, но не менее 7% от глобального годового оборота.
Со 2 февраля 2025 года поставщики услуг и разработчики должны обеспечить достаточную грамотность персонала при работе с ИИ. Проводить обучение рекомендуется, но это не обязательно.
Все зависит от роли в компании и связанных рисков, но требуется обеспечить общее понимание ИИ и индивидуальные меры по повышению грамотности на основе технических знаний и контекста.
Принятие Закона ЕС об ИИ требует, чтобы организации внедрили меры по выполнению соответствующих обязательств. Аудит играет важнейшую роль в этом процессе, помогая компаниям понять, как используются ИИ-системы, где существуют риски и какие меры по обеспечению соответствия необходимо принять.
Аудиты помогают:
На практике эти оценки формируют основу для программ управления ИИ и позволяют организациям приоритизировать меры по комплаенсу в зависимости от рисков и требований регуляторов.
Закон ЕС об ИИ внедряется поэтапно, чтобы у организаций было время на адаптацию своей стратегии контроля ИИ, управления рисками и программ комплаенса. Ключевые этапы включают в себя момент вступления закона в силу, применение отдельных обязательств и дату окончательной реализации.
Дата
Этап
1 августа 2024 г.
Закон ЕС об ИИ официально вступает в силу.
2 февраля 2025 г.
Запрещенные практики ИИ требуется полностью исключить. Назначены национальные органы, ответственные за контроль исполнения.
2 августа 2025 г.
Начинают действовать правила для моделей ИИ общего назначения и соответствующие обязательства по управлению.
2 августа 2026 г.
Закон об ИИ полноценно вступает в силу. Обязательства по комплаенсу распространяются на все категории рисков ИИ, включая системы с высоким уровнем риска.
2 августа 2027 г.
Системы ИИ с высоким риском, встроенные в регулируемые продукты, должны полностью соответствовать требованиям Закона ЕС об ИИ.
Поэтапный подход позволяет обеспечить комплаенс без ущерба для скорости инноваций. Организации могут постепенно внедрять средства контроля, технические меры безопасности и механизмы надзора на основе рисков ИИ.
Искусственный интеллект (ИИ) — компьютерная технология, которая имитирует когнитивные способности человека путем идентификации и сортировки входных данных. Для этого могут использоваться запрограммированные рабочие процессы или машинное обучение.
При применении машинного обучения ИИ на основе данных учится распознавать закономерности и делать прогнозы. Закон об ИИ определяет ИИ-систему как машинную систему, которая действует с разной степенью автономности и генерирует такие результаты, как прогнозы, контент, рекомендации или решения.
Примеры ИИ-систем в соответствии с Законом об ИИ включают распознавание эмоций, распознавание лиц, отбор кандидатов, отправление правосудия, здравоохранение (например, анализ симптомов), обслуживание клиентов, чат-боты и генеративный ИИ.
Генеративный ИИ, например ChatGPT, — это ИИ-система, которая автономно генерирует результаты на основе входных данных с использованием машинного обучения и больших языковых моделей (LLM). Эти системы могут ошибаться и «галлюцинировать», выдавая правдоподобные, но неточные утверждения.
При использовании ИИ-систем, включающих персональные данные, необходимо соблюдать GDPR и применять методы предотвращения потери данных. Штрафы за инциденты могут достигать 4% годового оборота или 20 миллионов евро.
Компании должны обеспечивать законную обработку, соблюдать требования к минимизации, точности и конфиденциальности данных, а также выполнять обязательства по предоставлению информации.
Автоматизированные решения с юридическими последствиями должны приниматься с участием человека. Кроме того, необходимо применять технические и организационные меры, такие как шифрование и псевдонимизация.
Для обработки данных с высоким риском требуется оценка воздействия на защиту данных.
Коммерческие тайны должны быть защищены от незаконного приобретения и раскрытия. Необходимо обеспечить их конфиденциальность, ограничить доступ к ним и требовать подписание соглашений о неразглашении.
ИИ-системы, обучающие данные и вывод могут представлять собой коммерческую тайну. Компании должны регулировать использование входных данных и изучать условия третьих сторон, чтобы избежать рисков раскрытия информации.
Проблемы авторских прав возникают как на входе, так и на выходе ИИ-систем. Использование защищенного контента для обучения требует юридической проверки.
В соответствии с действующим законодательством, произведения, созданные с помощью ИИ, не защищены авторским правом, поскольку не являются человеческими творениями. Это означает, что вывод является общедоступным.
Закон ЕС об ИИ широко применяется к организациям, участвующим в разработке, распространении или использовании ИИ-систем, которые затрагивают рынок в ЕС, где бы ни находился головной офис организации.
Например:
В организациях ответственность обычно распространяется на следующие роли:
В случае нарушений или ущерба, причиненного ИИ-системами, именно эти стороны по Закону будут нести ответственность, включая штрафы, рыночные ограничения и компенсации за несоблюдение требований.
Закон ЕС об ИИ не применяется непосредственно в Великобритании, поскольку Великобритания больше не является частью Европейского Союза. Однако британские организации обязаны его соблюдать, если они разрабатывают, продают или развертывают ИИ-системы, которые используются в ЕС или затрагивают граждан ЕС.
В таких случаях британские компании обязаны соблюдать Закон ЕС об ИИ в качестве экстерриториального законодательства. Это актуально для британских организаций, работающих на международном уровне или в ЕС, особенно в сферах со строгим регулированием и высоким риском.
Компании должны ознакомиться с условиями сторонних ИИ-систем и обратить особое внимание на следующую информацию:
Применимое законодательство и юрисдикция.
Хранение и использование входных данных для обучения.
Права на выходные данные.
Освобождение от ответственности по искам об авторском праве.
Ограничения гарантии и ответственности.
Внутренние рекомендации по ИИ помогают регулировать использование ИИ-систем сотрудниками. Например:
Описания и авторизации ИИ-систем.
Инструкции по обработке входных и выходных данных.
Соблюдение требований по конфиденциальности и защите данных
Меры кибербезопасности и обязательства по обеспечению прозрачности.
Закон ЕС об ИИ по большей части вступает в силу со 2 августа 2026 года и распространяется на компании, использующие ИИ. Он регулирует работу поставщиков и разработчиков ИИ с помощью подхода на основе рисков: чем выше риск общественного вреда, тем строже правила.
При обработке персональных данных с помощью ИИ-систем требуется соблюдение GDPR.
ИИ-системы должны быть защищены от несанкционированного доступа и кибератак.
При использовании ИИ-систем необходимо защищать коммерческие тайны.
Необходимо тщательно рассматривать вопросы авторского права как во входных, так в выходных данных.
Компании несут ответственность за дефекты в продуктах и услугах, вызванные ИИ.
Условия использования сторонних ИИ-систем должны тщательно изучаться.
Необходимо развивать грамотность при работе с ИИ среди сотрудников.
Соблюдение Закона ЕС об ИИ означает не только понимание правил, но и активное управление, мониторинг рисков и четкое разделение обязанностей при использовании ИИ-систем. От авторских прав и обязательств до условий использования и внутренних руководств — организации должны обеспечивать соответствие каждого аспекта развертывания ИИ правовым стандартам, даже когда они меняются.
Для этого компании могут использовать передовые инструменты, которые упрощают комплаенс и снижают риск киберугроз, например платформу Trend Micro Cyber Risk Exposure Management, разработанную, чтобы помочь вам выявлять уязвимости, управлять рисками, связанными с ИИ, и поддерживать надежность своих цифровых операций.
Фернандо Кардосо занимает должность вице-президента по управлению продуктами в Trend Micro. Особое внимание он уделяет постоянно меняющимся технологиям ИИ и облаков. Он начал карьеру как инженер по сетям и инженер по продажам в сфере центров обработки данных, облака, DevOps и кибербезопасности. Эти темы по-прежнему увлекают его.
Закон ЕС об ИИ — это нормативный акт, регулирующий системы искусственного интеллекта для обеспечения безопасности, прозрачности и защиты фундаментальных прав.
Закон ЕС об ИИ вступил в силу в 2024 году, и с 2026 года организации во всех государствах-членах ЕС будут обязаны соблюдать все его требования.
Закон ЕС об ИИ распространяется на поставщиков, пользователей и импортеров ИИ-систем, работающих в Европейском Союзе или предназначенных для этого рынка.
Закон ЕС об ИИ был принят Европейским парламентом в 2024 году после длительных переговоров и консультаций с заинтересованными сторонами.
Для его соблюдения организации должны классифицировать ИИ-системы по рискам, обеспечивать прозрачность, проводить оценку соответствия и вести документацию.