Anthropic CEO Dario Amodei 亲自撰文阐述公司在与战争部谈判中的立场,坚守大规模监控与全自主武器两条底线。
Anthropic 首席执行官 Dario Amodei 发表个人声明,详细阐述了公司与美国战争部之间的分歧。Amodei 开篇就表达了他对使用 AI 保卫美国及其他民主国家的坚定信念。
Anthropic 的国家安全贡献
Amodei 列举了 Anthropic 在国家安全领域的主动贡献:
- 首家在美国政府保密网络中部署模型的前沿 AI 公司
- 首家在国家实验室部署模型的公司
- 首家为国家安全客户提供专属服务的公司
- Claude 已被广泛部署于战争部及其他国家安全机构,用于情报分析、建模与仿真、作战规划、网络行动等关键任务
此外,Anthropic 还主动放弃了数亿美元的收入,切断了与中国共产党相关企业使用 Claude 的渠道,阻止了中共资助的网络攻击,并倡导对芯片实施严格的出口管制。
两条不可逾越的红线
Amodei 详细解释了公司坚持的两项例外:
1. 大规模国内监控:Anthropic 支持合法的外国情报和反间谍任务中使用 AI,但将这些系统用于大规模国内监控与民主价值观不相容。AI 驱动的大规模监控对基本自由构成严重的新型风险。在现行法律下,政府可以从公开来源购买美国人的详细行动记录、网页浏览和社交关系数据而无需获得搜查令——强大的 AI 能够将这些零散的、看似无害的数据自动且大规模地拼凑成任何人的完整生活画像。
2. 全自主武器:部分自主武器(如当前在乌克兰使用的)对保卫民主至关重要。甚至完全自主武器最终也可能对国防至关重要。但当前的前沿 AI 系统可靠性不足以驱动全自主武器——Anthropic 不会故意提供危害美国军人和平民安全的产品。公司已提出与战争部合作开展研发以提高这些系统的可靠性,但遭到拒绝。
战争部的威胁
战争部已公开表示,他们只会与同意"任何合法用途"并在上述情况下移除安全措施的 AI 公司签订合同。他们威胁要将 Anthropic 从其系统中移除、将其指定为"供应链风险",甚至援引《国防生产法》强制移除安全措施。Amodei 指出,后两项威胁本身就是自相矛盾的:一个标签将 Anthropic 视为安全风险,另一个却将 Claude 视为国家安全必需品。
Amodei 最后表示,公司强烈希望继续为战争部和军人服务——在保留两项安全措施的前提下。如果战争部选择终止合作,Anthropic 将配合实现平稳过渡。
编辑点评
Dario Amodei 这份声明的精妙之处在于,它既展现了 Anthropic 对国家安全的真诚承诺,又清晰地划定了技术伦理的边界。将"大规模监控"和"全自主武器"作为不可谈判的底线,不仅是商业策略,更是对 AI 时代民主价值观的一次重要宣言。尤其值得注意的是,Amodei 指出战争部威胁的内在矛盾:既视 Anthropic 为安全风险,又视其为国家安全必需品。这种逻辑悖论揭示的不是 Anthropic 的问题,而是政府在 AI 治理上的混乱与急切。这场博弈的结局,将深刻影响 AI 行业与政府权力之间的权力边界。


