Россия готовится к регулированию ИИ: кто будет нести ответственность за ошибки системы

Россия готовится к регулированию ИИ: кто будет нести ответственность за ошибки системы

В России обсуждается законопроект о регулировании искусственного интеллекта, который может ввести запрет на технологии с «неприемлемым уровнем риска», обязательную маркировку ИИ-контента и ответственность разработчиков за возможный вред. Документ, разработанный профильной рабочей группой, уже обсуждается в Госдуме и деловом сообществе.

Что предлагает законопроект

Определение ИИ и классификация рисков

Проект закона впервые на законодательном уровне закрепляет понятия:

  • Искусственный интеллект – технологические решения, имитирующие когнитивные функции человека (самообучение, принятие решений без жестких алгоритмов).
  • Системы ИИ – информационные комплексы, использующие технологии машинного обучения, компьютерного зрения, обработки естественного языка и др.

Все системы ИИ предлагается разделить на четыре категории по уровню риска:

  • Неприемлемый риск – полный запрет на разработку и использование (угроза безопасности, правам человека).
  • Высокий риск – обязательная госрегистрация и сертификация (медицина, транспорт, финансы).
  • Ограниченный риск – внутренний контроль и добровольная сертификация.
  • Минимальный риск – отсутствие жесткого регулирования.

Маркировка ИИ-контента

Операторы систем ИИ должны будут явно обозначать, что пользователь взаимодействует с искусственным интеллектом. Исключение – закрытые корпоративные системы.

Ответственность за вред

Разработчики несут ответственность, если не приняли мер для предотвращения вреда. Операторы освобождаются от ответственности, если докажут, что вред вызван ошибками разработки или нарушением правил эксплуатации. Для систем высокого риска вводится обязательное страхование ответственности.

Авторские права на ИИ-контент

Если в создании результата был творческий вклад человека, права остаются за ним. Если контент сгенерирован автономно – исключительные права получает оператор системы на 50 лет.

Реакция рынка и экспертов

Представители IT-индустрии опасаются, что жесткое регулирование затормозит развитие отрасли. В правительстве ранее заявляли, что спешки с законами об ИИ не будет, но рабочая группа в Госдуме уже начала проработку точечных инициатив.

Роман Хазеев («Ростелеком»): «Сейчас ни одна страна не имеет четких правил по ответственности за ИИ. Регулирование нужно, но только после стабилизации технологических процессов».

Международный опыт

  • ЕС уже ввел AI Act с запретом на манипулятивные ИИ-системы и обязательной маркировкой. Нарушителям грозят штрафы до €40 млн.
  • Китай с сентября 2025 года обяжет маркировать весь ИИ-контент для борьбы с фейками.
    США также рассматривают аналогичные меры.
  • В России дискуссии о маркировке идут с 2022 года, но единого закона пока нет. Депутаты предлагают вводить водяные знаки или графические метки, чтобы пользователи могли отличать ИИ-контент.

Если законопроект примут, у компаний будет 1 год на адаптацию, а системы высокого риска должны пройти сертификацию за 2 года. Пока документ не внесен в Госдуму, но обсуждения усиливаются – вопрос регулирования ИИ становится все актуальнее.

Фото: Firestock.