В России подготовлен проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» (далее - «Законопроект»).
Это первая попытка создать единый системный нормативный акт, который будет регулировать разработку, внедрение и использование технологий ИИ, включая большие нейросетевые модели, сервисы генерации контента и решения, применяемые в критической инфраструктуре.
Законопроект охватывает широкий круг вопросов: от базовых определений и принципов регулирования до интеллектуальной собственности, маркировки дипфейков и правил допуска ИИ к государственным системам. Однако при всей масштабности в тексте присутствуют спорные нормы и потенциальные коллизии с действующим законодательством, которые требуют доработки.
Ниже представлен аналитический обзор Законопроекта и системные предложения по регулированию нейросетей с акцентом на ключевые проблемные положения.
1. Общая оценка Законопроекта
Законопроект является своевременным и амбициозным документом: он формирует основу правового поля для ИИ в России и задаёт направление будущего подзаконного регулирования. Его важность состоит в том, что он впервые предлагает комплексную модель управления ИИ на федеральном уровне.
Сильные стороны Законопроекта
Во-первых, вводится полноценный понятийный аппарат: закон закрепляет определения искусственного интеллекта, моделей, сервисов, субъектов отношений и механизмов обучения.
Во-вторых, Законопроект формирует понятную цепочку участников ИИ-рынка:
разработчик модели → оператор системы → владелец сервиса → пользователь.
Такое разграничение важно для распределения ответственности.
В-третьих, закрепляются права граждан:
- право на информирование о применении ИИ,
- право на отказ от автономных решений (в случаях, определяемых Правительством),
- право на досудебное обжалование решений, принятых с применением ИИ,
- право на компенсацию вреда.
В-четвёртых, предусмотрен риск-ориентированный подход (ст. 5) и режим «доверенных моделей» для использования в государственных системах и на объектах критической информационной инфраструктуры (ст. 8).
В-пятых, Законопроект содержит прогрессивную норму о допустимости извлечения данных из охраняемых объектов для обучения ИИ при наличии правомерного доступа. Это потенциально снижает правовые барьеры для обучения моделей.
В-шестых, предусмотрены меры поддержки вычислительной инфраструктуры (ст. 20), включая особое регулирование центров обработки данных и суперкомпьютеров, что отражает реальную потребность индустрии в вычислительных мощностях.
2. Основные риски и недостатки Законопроекта
Несмотря на очевидные достоинства, в текущей редакции Законопроект содержит нормы, которые могут привести к правовой неопределённости и затруднить развитие отрасли.
2.1. Чрезмерно широкое определение ИИ
Определение ИИ в п. 1 ст. 3 сформулировано слишком широко: под него потенциально подпадают не только нейросети общего назначения, но и любые решения с машинным обучением, включая бытовые функции вроде фильтрации спама или автокоррекции фотографий.
Это может привести к тому, что обязанности разработчика и оператора станут формально применимыми к миллионам устройств и сервисов, что невозможно обеспечить на практике.
2.2. Нереалистичный критерий «суверенной модели» (ст. 7)
Статья 7 закрепляет понятие суверенных и национальных моделей ИИ и требует, чтобы обучение проводилось на наборах данных, сформированных исключительно на территории РФ российскими субъектами.
На практике фундаментальные модели (LLM) обучаются на глобальных знаниях — научных, культурных, технических. Поэтому территориальное требование делает невозможным получение статуса «суверенной модели» даже для ведущих российских разработок, если они используют международные корпуса данных.
2.3. Неопределённый стандарт ответственности (ст. 11)
Формулировка «заведомо знали или должны были знать» о возможности получения противоправного результата создаёт презумпцию виновности для разработчиков и владельцев сервисов.
В случае генеративных моделей этот подход особенно проблемен: их ответы вероятностны и не всегда предсказуемы даже при наличии фильтров. Норма создаёт риск массовых претензий и чрезмерного давления на индустрию.
2.4. Коллизия с Гражданским кодексом РФ в сфере интеллектуальной собственности (ст. 13)
Статья 13 признаёт охраноспособность объектов, созданных автоматизированной системой, если они соответствуют критериям оригинальности.
Однако ст. 1228 ГК РФ прямо указывает, что автором является только гражданин, творческим трудом которого создан результат. Это означает: объект может быть «охраноспособным», но у него отсутствует автор, а значит исключительное право не возникает. Такая коллизия может сделать договорные конструкции, связанные с передачей прав, юридически спорными.
2.5. Лазейка в маркировке дипфейков (ст. 12)
Часть 5 ст. 12 допускает договорной отказ от человекочитаемой маркировки синтезированного контента через пользовательское соглашение.
Формально отказ должен быть «предметным, информированным, сознательным и однозначным», но на практике это означает простую галочку в интерфейсе. Такая конструкция легализует распространение немаркированных дипфейков и может подорвать доверие к цифровой информации.
2.6. «Резиновая норма» п. 2 ст. 17
Пункт 2 ст. 17 допускает запрет или ограничение трансграничных технологий ИИ «в случаях, установленных законодательством РФ», не устанавливая никаких критериев.
Фактически это открывает возможность произвольных ограничений любых иностранных технологий ИИ без прозрачных оснований, что создаёт правовую неопределённость и повышает риски для бизнеса.
3. Предложения по регулированию нейросетей
3.1. Уточнение определения ИИ и исключение простых ML-функций
Оптимальным решением является введение квалифицирующего признака автономности, аналогично подходу ЕС:
«ИИ - комплекс решений, позволяющий имитировать когнитивные функции человека с возможностью автономного принятия решений или генерации контента…»
Дополнительно целесообразно исключить из сферы действия закона:
- встроенные ML-функции общего назначения (автокоррекция, шумоподавление, спам-фильтры);
- системы, применяемые исключительно в научных исследованиях;
- open-source разработки, используемые в некоммерческих целях.
Без такого уточнения Законопроект рискует стать технически неисполнимым.
3.2. Корректировка критериев суверенных моделей (ст. 7)
Территориальный критерий формирования датасетов следует заменить на критерий контроля:
«наборы данных находятся под управлением российских юридических лиц или граждан РФ (хранение, фильтрация, курирование) независимо от первоначального источника данных».
Также необходимо прямо разрешить использование иностранных источников при условии:
- финальной фильтрации и дообучения в РФ,
- приоритетного включения российского языкового и правового контекста.
3.3. Усиление прав граждан: отказ от ИИ и право на объяснение
Право на отказ от автономных решений нельзя полностью оставлять на усмотрение Правительства. Закон должен сам закрепить сферы, где альтернатива без ИИ обязательна:
- государственные услуги,
- здравоохранение (диагностика и лечение),
- образование (оценка знаний),
- правосудие и административные решения.
В остальных сферах логично закрепить:
- обязанность уведомлять о применении ИИ,
- право гражданина получить объяснение ключевых факторов, повлиявших на решение.
4. Статья 13: интеллектуальная собственность
4.1. Коллизия с ГК РФ
Оптимальный вариант - внести поправки в часть 4 ГК РФ с введением особого правового статуса лица, организовавшего создание результата с применением ИИ (аналог смежных прав).
Компромиссный вариант: признание охраноспособности только при наличии существенного творческого вклада человека (формирование уникального промпта, компиляция, отбор и переработка результата).
Также можно уточнить, что условия пользовательского соглашения о принадлежности прав действуют только в пределах прав, допустимых по закону.
5.2. Риски нормы (п. 5 ст. 13 Законопроекта)
Формулировка «доступен для анализа» может быть истолкована как разрешение обучаться на любом опубликованном контенте без согласия правообладателя.
Необходимо:
- ввести механизм взможность для правообладателя запрещать обучение на своих данных через машиночитаемые метаданные),
- установить обязанность разработчиков проверять такие запреты,
- предусмотреть модель справедливого вознаграждения правообладателям для коммерческих моделей,
- обязать раскрывать основные источники данных обучения,
- уточнить, что исключение не распространяется на воспроизведение контента в существенном объёме.
6. Статья 17, пункт 2: необходимость конкретизации
Для устранения риска произвольных запретов необходимо закрепить в законе закрытый перечень оснований для введения запретов, например:
- угроза национальной безопасности,
- нарушение требований локализации данных,
- несоответствие требованиям доверенных моделей при работе с КИИ,
- систематическое использование для незаконного контента при отсутствии фильтрации.
Без такой конкретизации норма остаётся «резиновой» и может применяться расширительно.
7. Пробелы Законопроекта: что необходимо добавить
7.1. Персональные данные и обучение моделей
Законопроект почти не затрагивает вопросы 152-ФЗ.
Следует предусмотреть:
- основания обработки данных при обучении моделей,
- особенности «права на забвение» для уже обученных моделей.
7.2. Open-source модели и API-интеграция
Нужно разграничить ответственность между:
- автором базовой open-source модели,
- компанией, выполнившей точную настройку (fine-tuning),
- оператором сервиса, предоставляющим доступ пользователям.
Также важно закрепить правила ответственности при использовании моделей через API.
7.3. Регуляторные песочницы
Законопроекту требуется статья об экспериментальных правовых режимах (ЭПР) для тестирования ИИ в высокорисковых отраслях. Это позволит запускать инновации без блокировки общими требованиями.
7.4. Институциональный дизайн регулятора
Необходимо чётко разграничить полномочия между Минцифры, ФСБ, ФСТЭК, Роскомнадзором и экспертными организациями. Иначе регулирование будет конфликтным и непрозрачным.
8. Итог
Законопроект способен стать фундаментом регулирования ИИ в России, однако без доработки он может превратиться либо в декларативный документ, либо в инструмент, затрудняющий развитие индустрии.
Ключевые приоритеты корректировки:
- сузить определение ИИ и исключить простые ML-функции;
- заменить территориальный критерий данных в ст. 7 на критерий контроля;
- реформировать стандарт ответственности и создать safe harbour;
- устранить коллизию с ГК РФ по интеллектуальной собственности (ст. 13);
- закрыть лазейку с маркировкой дипфейков (ст. 12);
- конкретизировать основания ограничения трансграничных технологий (ст. 17);
- добавить нормы о персональных данных, open-source и API;
- закрепить механизм регуляторных песочниц.
При грамотной доработке Законопроект способен создать устойчивую правовую среду, которая будет сочетать развитие нейросетевых технологий, защиту прав граждан и задачи технологического суверенитета. Без таких изменений он рискует стать примером регулирования, не учитывающего технологическую природу современных нейросетей.
Команда платформы Botman.one предлагает вам автоматизировать ваши процессы с помощью платформы и доступных на ней нейросетей. Мы можем сами сделать автоматизацию под заказ или вы можете самостоятельно атоматизировать процессы на платформе. Тут можно попробовать: ссылка.
Проходите бесплатный курс по legaltech: ссылка
Пользуйтесь базой знаний legaltech: ссылка
Заходите в Телеграм-группу, где мы обсуждаем технологии: ссылка
Смотрите наши обучающие видео: ссылка