Anthropic 与五角大楼的法律战升级,Cursor 发布自研 AI 编程模型 Composer 2,Amazon Alexa+ 正式登陆英国——AI 行业在政策、产品和商业化三条战线同时推进。
1. 美国国防部为将 Anthropic 列为"国家安全风险"辩护
美国国防部(DoD)3月19日向联邦法院提交文件,为此前将 Anthropic 的 Claude AI 平台列为"国家供应链安全风险"的决定进行辩护。DoD 律师认为,法院不应给予 Anthropic 临时禁令,因为这将对行政部门造成"实质性伤害"。
这场法律战的背景是国防部长 Pete Hegseth 此前要求五角大楼停止使用 Anthropic 的 Claude 产品。但据《海峡时报》报道,军方用户反映 Anthropic 的 AI 工具在性能上优于替代方案,替换并非易事。特朗普政府在另一份文件中更进一步,称 Anthropic 拒绝配合政府的行为"不构成受保护言论"。
这一事件折射出当前美国 AI 政策中的深层矛盾:政府一方面大力推进 AI 发展,另一方面又试图通过行政手段惩罚在安全政策上持不同立场的 AI 公司。这对整个 AI 行业的政商关系走向有着重要的风向标意义。
2. Cursor 发布自研编程模型 Composer 2,挑战 Anthropic 和 OpenAI
AI 编程工具明星创业公司 Cursor 正式发布 Composer 2——一个自主研发的 AI 编程 Agent 模型,旨在直接与 Anthropic 的 Claude 和 OpenAI 的 GPT 系列竞争。
Composer 2 的最大特点是能够执行长时间的复杂编程任务,而不仅仅是代码补全。据报道,Cursor 通过强化学习(RL)训练 Composer 实现了"自我总结"能力,使其在长周期任务中保持上下文连贯性。此前 Cursor 还发布了 CursorBench,一个专门评测 AI 编程 Agent 能力的基准测试。在该基准上,Claude Haiku 4.5 的得分从 SWE-Bench 的 73.3 暴跌至 29.4,Claude Sonnet 4.5 从 77.2 降至 37.9,揭示了现有模型在真实编程 Agent 场景中的不足。
Cursor 此举标志着 AI 编程工具从"调用第三方模型"向"自研专用模型"的重要转变,也意味着垂直应用公司开始在模型层发起挑战。
3. Amazon Alexa+ 正式登陆英国,标志 Agentic AI 进入消费市场
Amazon 于3月19日在英国正式推出 Alexa+,这是自 Alexa 近十年前问世以来最大的一次升级。英国用户可以免费体验这一基于 AI Agent 技术的新版语音助手。
与传统的"命令-响应"式交互不同,Alexa+ 采用 Agentic AI 架构,能够理解更复杂的自然语言请求,执行多步骤任务,并在不同服务间进行协调。这是 Amazon 在美国推出 Alexa+ 后的首次国际扩展,表明该公司正在加速将 AI Agent 能力推向全球消费者市场。
此前 Amazon 在 Alexa 的 AI 升级上经历了多年的艰难转型,Alexa+ 的国际化扩张意味着 Amazon 对这一新方向有了更大的信心。消费级 AI Agent 的竞争正在从美国蔓延到全球。
来源: Tech Digest
4. GSA 与 NIST 联手加强联邦 AI 工具安全评估
美国总务管理局(GSA)与国家标准与技术研究院(NIST)的 AI 标准与创新中心宣布建立新合作关系,旨在提升政府对 AI 工具的安全管理能力。NIST 将为 GSA 提供工具和指导,帮助联邦机构评估高级 AI 模型的安全性。
这一合作对于 AI 行业意义重大:它意味着美国联邦政府正在构建系统化的 AI 采购和安全评估框架。随着越来越多的政府机构部署 AI 系统,一个统一的安全标准体系对于规范市场和保障公共利益至关重要。
编辑点评
今天的新闻呈现出一个有趣的三角关系:政府想管 AI、AI 公司想做产品、垂直应用想自研模型。Anthropic 与五角大楼的对峙仍在升级,这场法律战的走向将直接影响 AI 公司与政府打交道的方式。而 Cursor 自研模型的举动,则暗示"上游通吃一切"的时代可能正在结束——当应用公司积累了足够的场景数据,自建模型就成了必然选择。

