三家美国 AI 巨头罕见联手,共享情报应对'对抗性蒸馏'

三家美国 AI 巨头罕见联手,共享情报应对"对抗性蒸馏"

OpenAI、Anthropic 和 Alphabet 旗下 Google 正在通过 Frontier Model Forum 共享关于"对抗性蒸馏"的情报,试图遏制中国竞争对手未经授权提取美国前沿模型输出、复制其能力。这是三家通常在产品层面激烈竞争的公司之间一次罕见的合作。

DeepSeek 对话机器人界面

什么是"对抗性蒸馏"

蒸馏是一种模型训练技术:用一个大型的"老师"模型的输出来训练一个小型的"学生"模型,让学生以更低的成本复制老师的能力。在正常场景下,这甚至被 AI 实验室鼓励——比如用旗舰模型训练一个更小、更高效的专用版本。

但"对抗性蒸馏"指的是第三方(尤其是不在授权范围内的公司)大量提取前沿模型输出,训练自己的竞争产品。美国 AI 公司认为这既造成经济损失,也存在安全隐患——蒸馏后的模型往往缺少原始模型的安全护栏。

三家做了什么

Frontier Model Forum 是 OpenAI、Anthropic、Google 和微软在 2023 年共同成立的行业非营利组织。据知情人士透露,三家公司现在通过这个平台交换蒸馏攻击的检测数据,做法类似网络安全行业共享威胁情报——识别谁在操作、用了什么手段、怎么阻止。

OpenAI 已公开确认参与这一行动,并在近期提交给美国国会众议院中国问题特别委员会的备忘录中,指控 DeepSeek 试图"搭便车"利用美国前沿实验室开发的能力。Google、Anthropic 和 Frontier Model Forum 拒绝置评。

各方的具体动作

Anthropic 去年就封锁了中国公司使用其 Claude 模型。今年 2 月,Anthropic 公开点名 DeepSeek、Moonshot 和 MiniMax 三家中国实验室,称它们通过蒸馏非法提取 Claude 的能力。Anthropic 还认为这一威胁"不限于任何单一公司或地区",蒸馏模型缺失安全护栏,可能被用于恶意活动。

Google 也发布博文称检测到模型提取尝试的增加。OpenAI 则在 2 月警告国会议员,DeepSeek 采用了越来越精细的手段来提取美国模型输出,用于开发新版对话机器人。

损失和矛盾

据知情人士透露,美国官员估算未授权蒸馏每年给硅谷实验室造成数十亿美元损失。

但这里有一个更底层的问题。中国实验室大多做开源模型,权重公开可用,使用成本极低;美国公司押注闭源模式,靠用户付费来回收投入在数据中心和基础设施上的数百亿美元。开源模型本身就在价格上对闭源模型形成冲击,蒸馏进一步放大了这种压力。

三家美国公司目前尚未公开量化证据,说明中国模型创新在多大程度上依赖蒸馏。它们提到可以通过大规模数据请求的流量来衡量攻击频率,但没给出具体比例。

合作也有边界

目前的情报共享相当有限。知情人士称,三家公司对在现有反垄断指引下哪些信息可以互换仍然存疑,担心合作本身可能引发监管审查。它们希望美国政府给出更明确的边界。

特朗普政府的 AI 行动计划已呼吁建立一个信息共享与分析中心,部分目的就是为 AI 公司间的反蒸馏合作提供框架。但这个中心尚未落地,短期内三家公司的共享仍会在谨慎范围内推进。

怎么看

从公开信息看,三家公司把"蒸馏"框定为一个安全和经济双重问题,但缺少量化证据来支撑"数十亿美元损失"这个说法,也缺少中国模型依赖蒸馏的具体比例。这使得当前的指控更像是竞争策略的组成部分——在监管层面施加压力,为闭源商业模式的合理性争取政策支持。

对使用者而言,蒸馏本身是一个中性的技术手段。中国实验室选择开源路线,本身就是一种技术路线选择,和"是否偷了别人的能力"是两个层面的问题。在缺少公开证据的情况下,这个叙事更容易被解读为竞争博弈而非纯粹的安全关切。

来源:Bloomberg

相关推荐