Дайджест

OpenAI заявила о «дистилляции» технологий. DeepSeek подозревают в обходе защит американских моделей

Американская OpenAI направила в Конгресс США материалы, в которых утверждает, что китайская компания DeepSeek использовала методы копирования знаний для обучения своих ИИ-моделей, обходя ограничения и защитные механизмы.
По данным Bloomberg со ссылкой на внутреннюю записку, OpenAI уведомила специальный комитет Палаты представителей по Китаю о признаках применения дистилляции знаний — техники, при которой одна модель перенимает поведение и логику другой, анализируя её ответы. В компании заявили, что выявили новые, более скрытые способы обхода защитных механизмов.
Дополнительное внимание вызвал релиз модели DeepSeek-R1 с открытым исходным кодом в начале прошлого года. После него OpenAI совместно с Microsoft инициировали проверку на предмет того, могла ли R1 обучаться на данных американских ИИ-разработчиков.
В обращении к законодателям подчёркивается, что дистилляция становится технически сложнее несмотря на ограничения в правилах пользования сервисами OpenAI. По оценке компании, такие практики в значительной степени связаны с китайскими структурами, в отдельных случаях — с российскими пользователями.
В OpenAI указали на экономический фактор: многие китайские платформы, включая DeepSeek, дают доступ к чат-ботам без ежемесячной подписки. При массовой дистилляции это может ударить по бизнес-моделям компаний, вложивших миллиарды в разработку ИИ и взимающих плату за премиум-функции, и ослабить технологическое преимущество США.
Отдельно отмечено, что чат-бот DeepSeek цензурирует ответы по чувствительным в Китае темам. По мнению американской стороны, при копировании знаний вопросы безопасности могут отходить на второй план, что расширяет использование моделей в сферах повышенного риска — например, в биотехнологии или химии.
Внутренний анализ OpenAI показал, что аккаунты, связанные с сотрудниками DeepSeek, пытались обходить ограничения через сторонние маршрутизаторы для сокрытия источника запросов, разрабатывали код для автоматизированного доступа к американским ИИ-моделям и создавали сеть неавторизованных посредников для получения их ответов.
2026-02-13 13:52