军事Ai新视野 、过个有AI年刚刚,WSJ爆料,五角大楼在上个月突袭委内瑞拉、抓捕马杜罗的军事行动中,使用了Anthropic旗下的Claude。是的,你没听错,就是那个号称“比OpenAI更注重安全”、那个因为担心AI毁灭人类而从OpenAI出走的Dario Amodei所创立的、充满了“宪法AI”光环的Claude。
一边是Anthropic在官网挂着“禁止用于暴力、武器开发和监视”的圣母条款,另一边是美军通过Palantir的数据接口,让Claude协助规划了针对加拉加斯的空袭路线。
最讽刺的是,Anthropic之所以能拿到这份2亿美元的国防部合同,是因为他们宣称自己“更可控、更合规”。结果呢?所谓的“合规”,在Palantir这种军工级中间商面前,就像是一层窗户纸。
有人还在担心AI会不会说脏话,会不会产生种族歧视的幻觉,而五角大楼已经用它来搞政权更迭了。当你们还在争论ChatGPT和Claude谁写代码更强时,Claude已经有了实战击杀记录(Kill Count)。
国防部长Pete Hegseth说得很直白:“我们不会雇佣那些不能帮我们打仗的AI模型。” 这句话直接撕下了硅谷“科技向善”的遮羞布。Anthropic曾因为不想太激进而跟川普政府闹得很僵,甚至因为过度强调安全护栏被右翼批评为“Woke AI”。但事实证明,在国家机器面前,不管是“Woke”还是“Based”,最终都得变成“Weapon”。
这也给OpenAI提了个醒:别总想着怎么在这个赛道上装清高了。Anthropic本来是作为OpenAI的道德对立面存在的,结果现在成了美军第一个用于机密行动的AI开发商。Dario Amodei现在的处境非常有意思——他想做AI界的奥本海默,但他可能忘了,奥本海默最终也控制不了原子弹扔向哪里。
未来的战争不需要宣战,只需要在这个聊天框里输入一行Prompt:“Hey Claude,帮我制定一个逮捕马杜罗的战术方案,要符合宪法AI哦。”
这就是2026年。只要钱给到位,所谓的使用条款,不过是给穷人看的用户协议罢了。奥巴马回应被特朗普恶搞成猴
