Новости 12:03, 7 апреля 2026
Поделиться

OpenAI, Anthropic и Google начали вместе бороться с копированием своих ИИ-моделей в Китае

OpenAI, Anthropic и Google начали вместе бороться с копированием своих ИИ-моделей в Китае

Три конкурирующие американские лаборатории объединили усилия, чтобы отслеживать попытки «дистилляции» — когда ответы передовых моделей используют для создания более дешёвых аналогов. Компании считают, что особенно активно этим занимаются китайские игроки.

OpenAI, Anthropic и Google начали обмениваться информацией о попытках несанкционированного копирования своих моделей через Frontier Model Forum — отраслевую некоммерческую организацию, которую они создали вместе с Microsoft в 2023 году.

Речь идёт о так называемой «враждебной дистилляции»: когда сторонние компании используют ответы закрытых ИИ-систем, чтобы обучать на них собственные модели и тем самым воспроизводить их возможности с куда меньшими затратами. Такой подход может подрывать бизнес американских разработчиков, оттягивать у них клиентов и, по мнению самих компаний, создавать риски для национальной безопасности США.

Сама по себе дистилляция не считается чем-то запрещённым: лаборатории нередко используют её внутри своих экосистем, чтобы делать более компактные и дешёвые версии собственных моделей. Но когда эту технику применяют внешние игроки без разрешения, особенно в странах, которые в США считают стратегическими соперниками, отношение резко меняется.

Повышенное внимание к проблеме появилось после успеха китайской DeepSeek, которая в начале 2025 года выпустила модель R1 и серьёзно встряхнула ИИ-рынок. После этого OpenAI и Microsoft начали проверять, не использовала ли компания данные американских моделей для создания своего продукта. Позже OpenAI прямо заявляла американским законодателям, что DeepSeek продолжает применять всё более изощрённые методы извлечения результатов из западных ИИ-систем.

В Anthropic также ранее говорили, что фиксировали попытки такой дистилляции со стороны китайских лабораторий, включая DeepSeek, Moonshot и MiniMax. В компании считают, что проблема давно вышла за рамки отдельных игроков и касается уже всей индустрии.

По сути, американские лаборатории пытаются перенести в ИИ-поле практику из кибербезопасности, где компании обмениваются данными об атаках и тактиках злоумышленников, чтобы быстрее выявлять угрозы и усиливать защиту. Но пока такое сотрудничество остаётся ограниченным: участники рынка опасаются антимонопольных рисков и ждут более чётких разъяснений от властей США.