守住两条红线:评 Anthropic 与美国国防部门的公开分歧

Anthropic 在继续支持国家安全合作的同时,坚持拒绝大规模国内监控与完全自主武器,折射出前沿 AI 公司、军方采购规则与民主治理之间的结构性冲突。

2026 年 2 月末,Anthropic CEO Dario Amodei 发布声明,公开回应与美国“Department of War”的分歧:公司愿意继续深度服务国防与情报系统,但明确拒绝去除两项 safeguard,即“面向美国国内的大规模监控”与“完全自主武器”。这不是一次普通的商业谈判摩擦,而是 AI 军用化进入深水区后,一场关于边界、权力与责任的正面碰撞。

一、这不是“合作或对抗”的二选一

很多讨论会把问题简化为“科技公司是否支持国家安全”。但 Anthropic 的立场并非退出合作,相反,它在声明中反复强调自己已经长期、广泛地服务国防场景,包括情报分析、建模仿真、行动规划与网络行动等任务。

真正的争议点是:当国防采购方要求“任何合法用途(any lawful use)”并要求厂商移除关键限制时,供应商是否仍有权坚持最低治理底线。Anthropic 给出的答案是“有,而且必须有”。

这说明冲突核心不是“要不要军用 AI”,而是“军用 AI 是否存在不可让渡的红线”。

二、两条红线为何关键

Anthropic 划定的两条边界,分别对应两类高风险失控。

第一条是大规模国内监控。问题不在于单点侦查能力,而在于模型把零散、低敏感度数据自动拼接为可追踪个人生活全景的能力。当技术规模化和自动化后,传统法律里“单条数据不敏感”的判断标准会迅速失效。

第二条是完全自主武器。声明并未否认自治能力在未来防务中的价值,但强调当前前沿模型可靠性不足,无法承担脱离人类闭环的目标选择与打击责任。换句话说,技术潜力并不等于部署条件成熟。

这两条线共同指向一个现实:在高后果场景中,能力领先不能替代可验证的可靠性与问责机制。

三、采购权力与企业责任的制度张力

更值得警惕的是声明里披露的治理信号:一方面要求移除 safeguard,另一方面又以“供应链风险”等强制性工具施压。无论双方表述细节未来如何变化,这都揭示了一个结构性问题:

当国家安全采购越来越依赖少数前沿模型供应商时,合同条款将不再只是商业条件,而会成为事实上的 AI 治理机制。若条款默认“合法即无限可用”,企业侧的自我约束就会被系统性挤压。

因此,这场争议的意义超出 Anthropic 一家公司。它预示了未来几年各国都会面对的政策难题:

  1. 国防体系需要先进 AI;
  2. 先进 AI 带来更强的滥用外部性;
  3. 现行法与采购框架尚未准备好处理这种张力。

四、对行业与政策的现实启示

这次事件至少给出三点可执行启示。

第一,军用 AI 合同需要“正面清单 + 禁用清单”并行,而不是笼统的“任何合法用途”。法律底线是必要条件,不是风险上限。

第二,凡涉及自主致命决策与大规模公民画像的能力,应引入独立审计、可追溯日志和强制人工复核,避免在压力环境下默认放权给模型。

第三,科技公司若选择进入国家安全市场,就必须提前公开自己的不可协商条款,并在商业利益受损时仍能执行,否则所有“负责任 AI”承诺都会沦为宣传文本。

结语

Anthropic 这份声明最值得重视的,不是措辞强硬,而是它把一个常被回避的问题摆上台面:当 AI 成为关键军事基础设施的一部分,谁来决定“不能做什么”?

如果这个问题只在闭门合同里解决,社会将承担外部成本;如果它能在公开争论、制度审查和可验证约束中解决,AI 才可能真正服务安全,而不是反过来侵蚀安全本身。

参考链接

  • 原始声明:Statement from Dario Amodei on our discussions with the Department of War
    https://www.anthropic.com/news/statement-department-of-war
Related Posts
Built at 2026-03-08T04:05:24.718Z | v0.1.0