Anthropic公开叫板五角大楼,陷入“双输”困局?
===2026/3/1 9:08:21===
截至周五,Anthropic似乎已陷入必败之境。它必须在美国东部时间下午5:01前做出决定:是否同意让国防部在所有合法场景下无限制使用其模型。若拒绝,国防部长赫格塞思已放话,要么将其列为“供应链风险”,要么援引《国防生产法》强制其服从。
2025年7月,Anthropic与美国国防部签署了一份价值2亿美元的合同,成为首个将模型集成到涉密网络任务工作流中的AI实验室。该公司一直在与国防部协商协议条款,并要求对方保证,其技术不会被用于完全自主武器,也不会用于对美国民众的国内大规模监控。
Anthropic首席执行官达里奥・阿莫迪周四在一份声明中写道:“在少数特定场景下,我们认为AI非但无法捍卫民主价值观,反而会对其造成损害。部分应用场景也完全超出了当前技术能够安全、可靠运行的范畴。”
国防部寸步不让,谈判陷入僵局,这也成为迄今为止对Anthropic所宣称价值观最受瞩目的考验。多年来,Anthropic精心塑造自身作为安全、负责任部署AI倡导者的形象,与阿莫迪此前任职的OpenAI形成鲜明对比。
Anthropic是“供应链风险”吗?
与此同时,Anthropic还面临着巨大压力——需证明其3800亿美元的估值合理性(该估值由大型机构与战略投资者支撑),同时要在模型研发领域保持领先,抵御来自OpenAI、谷歌以及马斯克旗下xAI等对手的竞争。这三家公司的模型均已被美国国防部采用。
若屈从于国防部的要求,Anthropic可能会损害自身声誉,疏远员工与客户;但若拒绝向军方无限制开放其模型,短期内可能会损失可观收入,还可能被排除在未来与其他政府合作企业的潜在合作机会之外。
乔治城大学安全与新兴技术中心高级研究分析师劳伦・卡恩在接受采访时表示:“此事没有赢家,只会让所有人心里都不舒服。”
五角大楼首席发言人肖恩・帕内尔周四称,国防部“无意”将AI用于完全自主武器,也不会对美国民众实施大规模监控——他指出,这类行为本身就是非法的。他表示,国防部希望Anthropic同意,其模型可被用于“所有合法用途”。
帕内尔周四在X平台发文称:“这是一个简单、符合常理的要求,能避免Anthropic
=*=*=*=*=*=
当前为第1/3页
下一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页