资讯预计阅读 3 分钟

Dario Amodei 声明:Anthropic 与战争部的谈判立场——安全底线不可动摇

#Anthropic#Dario Amodei#政策
Dario Amodei 声明:Anthropic 与战争部的谈判立场——安全底线不可动摇

Anthropic CEO Dario Amodei 亲自撰文阐述公司在与战争部谈判中的立场,坚守大规模监控与全自主武器两条底线。

Anthropic 首席执行官 Dario Amodei 发表个人声明,详细阐述了公司与美国战争部之间的分歧。Amodei 开篇就表达了他对使用 AI 保卫美国及其他民主国家的坚定信念。

Anthropic 的国家安全贡献

Amodei 列举了 Anthropic 在国家安全领域的主动贡献:

  • 首家在美国政府保密网络中部署模型的前沿 AI 公司
  • 首家在国家实验室部署模型的公司
  • 首家为国家安全客户提供专属服务的公司
  • Claude 已被广泛部署于战争部及其他国家安全机构,用于情报分析、建模与仿真、作战规划、网络行动等关键任务

此外,Anthropic 还主动放弃了数亿美元的收入,切断了与中国共产党相关企业使用 Claude 的渠道,阻止了中共资助的网络攻击,并倡导对芯片实施严格的出口管制。

两条不可逾越的红线

Amodei 详细解释了公司坚持的两项例外:

1. 大规模国内监控:Anthropic 支持合法的外国情报和反间谍任务中使用 AI,但将这些系统用于大规模国内监控与民主价值观不相容。AI 驱动的大规模监控对基本自由构成严重的新型风险。在现行法律下,政府可以从公开来源购买美国人的详细行动记录、网页浏览和社交关系数据而无需获得搜查令——强大的 AI 能够将这些零散的、看似无害的数据自动且大规模地拼凑成任何人的完整生活画像。

2. 全自主武器:部分自主武器(如当前在乌克兰使用的)对保卫民主至关重要。甚至完全自主武器最终也可能对国防至关重要。但当前的前沿 AI 系统可靠性不足以驱动全自主武器——Anthropic 不会故意提供危害美国军人和平民安全的产品。公司已提出与战争部合作开展研发以提高这些系统的可靠性,但遭到拒绝。

战争部的威胁

战争部已公开表示,他们只会与同意"任何合法用途"并在上述情况下移除安全措施的 AI 公司签订合同。他们威胁要将 Anthropic 从其系统中移除、将其指定为"供应链风险",甚至援引《国防生产法》强制移除安全措施。Amodei 指出,后两项威胁本身就是自相矛盾的:一个标签将 Anthropic 视为安全风险,另一个却将 Claude 视为国家安全必需品。

Amodei 最后表示,公司强烈希望继续为战争部和军人服务——在保留两项安全措施的前提下。如果战争部选择终止合作,Anthropic 将配合实现平稳过渡。

编辑点评

Dario Amodei 这份声明的精妙之处在于,它既展现了 Anthropic 对国家安全的真诚承诺,又清晰地划定了技术伦理的边界。将"大规模监控"和"全自主武器"作为不可谈判的底线,不仅是商业策略,更是对 AI 时代民主价值观的一次重要宣言。尤其值得注意的是,Amodei 指出战争部威胁的内在矛盾:既视 Anthropic 为安全风险,又视其为国家安全必需品。这种逻辑悖论揭示的不是 Anthropic 的问题,而是政府在 AI 治理上的混乱与急切。这场博弈的结局,将深刻影响 AI 行业与政府权力之间的权力边界。

原文链接: Statement from Dario Amodei on Department of War


相关推荐