多家英文媒体报道,OpenAI 已向美国国会“美中战略竞争特别委员会”提交备忘录,指控中国人工智能公司 DeepSeek 通过“知识蒸馏(distillation)”方式,从美国领先的大模型输出中提取结果,用于训练自身模型,并称相关做法“既不公平且日益复杂”。 所谓的“知识蒸馏”根本不是什么见不得人的黑科技,反而在AI圈是个很常见的“省钱省力”技巧。 简单说,就是把那些参数庞大、耗钱耗算力的顶级AI模型(比如OpenAI的GPT-4o)当成“老师”,再找一个小巧、低成本的模型当“学生”,让“学生”模仿“老师”的回答逻辑、推理过程,甚至是“犹豫”的细节,最终实现“瘦身不缩水”——学生模型体积变小、成本降低,能力却能接近老师模型。 就像我们上学时,尖子生把复杂的解题思路简化后教给同学,同学不用再从头摸索,就能快速掌握解题技巧,本质上是一种高效的技术优化方式,微软、谷歌这些大厂都用过,并不是DeepSeek独创的。 这次OpenAI的指控,核心不是“知识蒸馏”本身,而是说DeepSeek没经过允许,用了不正当手段。根据OpenAI提交的备忘录(日期是2026年2月12日),他们声称监测到和DeepSeek员工相关的账户,通过第三方路由器、程序化工具伪装访问,绕开了OpenAI的安全防护,批量提取GPT-4o等模型的输出内容,再用这些内容通过蒸馏技术训练自家的R1、V3系列模型。 OpenAI还倒苦水,说他们研发这些顶级模型花了数十亿美元,投入了海量算力,DeepSeek这样做就是“系统性搭便车”,不仅不公平,还可能带来安全风险——毕竟美国的模型有严格的安全过滤,而蒸馏后可能会让敏感领域的技术能力脱离管控。 面对这场指控,DeepSeek的反应却异常淡定,没有陷入口水战,只用简单的几句话就直击要害:自家模型的训练数据,全都来自公开网页和电子书,从没使用过未经授权的合成数据; 核心架构、训练方法都是自主研发的,如果真的是“抄作业”,怎么可能做到训练成本只有几百万美元,却能在国际测评中接近GPT-4o的水平? 这话其实很有道理,要知道,OpenAI训练一个模型动辄要花数亿美元,而DeepSeek的R1模型,用的还是上一代芯片,却通过算法优化,把算力消耗降到了最低。 还做到了全部开源,代码和技术方案都能公开查询,这种“低成本高性能”的模式,恰恰打破了硅谷巨头垄断的行业规则——以前大家都觉得,做顶级AI必须砸钱堆算力,而DeepSeek证明,靠技术优化,同样能做出世界级的模型。 其实明眼人都能看出来,这场指控根本不只是简单的商业纠纷,更像是硅谷巨头的“焦虑宣泄”。OpenAI自己也在备忘录里承认,美国在AI领域的领先优势“并不大,而且正在缩小”,而DeepSeek的快速崛起,无疑刺痛了他们的神经。 要知道,DeepSeek的模型在数学、代码、推理等方面的表现,已经接近美国的顶级模型,还能以更低的价格提供服务,这直接冲击了OpenAI的市场地位,也让华尔街开始反思,美国公司这种“高成本”模式到底合不合理。 硅谷圈内也有不同声音,谷歌大脑创始人吴恩达、Meta AI首席科学家杨立昆等人都公开表示,DeepSeek的成功是算法效率的胜利,OpenAI的指控更像是在打压竞争对手。 目前,这场争议还没有定论,没有任何法院或监管机构认定DeepSeek存在侵权行为,而且全球范围内,关于“知识蒸馏是否构成侵权”,至今没有统一的法律界定——如果经过授权,就是正常的技术合作;如果爬取未授权的API输出,可能违反服务条款; 但如果只是学习公开数据中的AI内容,就是行业普遍行为。说到底,这场风波的本质,是全球AI赛道的话语权之争,美国想保住自己的领先优势,试图通过政策和舆论打压中国AI企业,而DeepSeek的崛起,恰恰说明中国AI已经摆脱了“跟跑”的标签,开始走出自己的特色路线。 类似的技术博弈未来只会越来越多,但封锁和打压从来挡不住创新。就像英伟达CEO黄仁勋说的,出口管制只会加速中国本土芯片和AI技术的成熟。OpenAI的指控,或许能暂时制造一些麻烦,但真正能决定企业未来的,还是技术实力。 对于我们普通人来说,不管是OpenAI还是DeepSeek,最终能带来更便捷、更便宜的AI服务,才是最实在的。而这场“抄作业”之争的背后,其实是中国AI从“追赶”到“突破”的缩影,未来,相信会有更多像DeepSeek这样的企业,用技术创新打破垄断,在全球AI舞台上拥有更多话语权。

