Дайджест

В России хотят ввести новые правила для ИИ

Правительство обсуждает закон «Об искусственном интеллекте в РФ», предполагаемая дата вступления в силу — 1 сентября 2027 года. В нём предлагается разделить ИИ-системы на суверенные и национальные, а также ввести обязательную проверку безопасности доверенных моделей в ФСТЭК и ФСБ. В качестве меры поддержки разработчиков рассматривается возможность предустановки программ с доступом к таким моделям на смартфоны и планшеты.
Суверенная модель — это система, созданная, обученная и используемая в России российскими компаниями и гражданами, на данных, собранных внутри страны, без зарубежных компонентов. Национальная модель допускает использование иностранных open source-решений и данных из других юрисдикций, что фактически задаёт два уровня самостоятельности.
Доверенные модели предназначены для критических сфер (энергетика, транспорт, связь, госуправление) и должны проходить проверку безопасности; конкретные критерии утвердит правительство. Законопроект также обязывает явно сообщать пользователю, что он взаимодействует с программой, вводит маркировку ИИ-контента, уточняет ответственность за работу алгоритмов и защиту авторских прав.
В отдельном блоке прописано авторство: если человек внёс творческий вклад, автором признаётся он; исключительные права принадлежат пользователю, если договор не говорит иначе, а платформа должна заранее разъяснять правила использования созданных материалов. Инициатива направлена на упорядочение рынка и поддержку отечественных решений, однако представители отрасли отмечают, что создание полностью суверенных моделей потребует значительных затрат. Если закон примут, с 2027 года в России появится система статусов и требований для ИИ-моделей, что затронет и крупные компании, и небольшие команды.
2026-02-27 16:29