Anthropic 在 2026 年 3 月上中旬密集发布了一系列重要公告,涵盖用户研究、合作伙伴网络扩展、机构布局,以及外界高度关注的安全合规争议。
1. 81,000 人告诉 Anthropic:他们到底想要什么 AI
3月18日,Anthropic 发布了迄今规模最大的用户调查研究。他们邀请 Claude.ai 用户分享 AI 使用体验、期望与担忧,共有近 81,000 人参与——这是 AI 领域规模最大、多语言覆盖最广的定性研究之一。
研究揭示了几个重要洞察:用户最关心的不是 AI 能力有多强,而是隐私与信任;在非英语用户群体中,对 AI 文化适配性的需求远超预期;以及,用户对 AI 广告化持有强烈抵触情绪。这些发现将直接影响 Anthropic 的产品路线图优先级。

来源: Anthropic News
2. Claude Partner Network:1 亿美元砸企业生态
3月12日,Anthropic 宣布向 Claude Partner Network 投入 1 亿美元。这是一个面向合作伙伴的生态建设计划,目标是加速 Claude 在企业级场景的落地——包括系统集成、垂直行业解决方案和定制化模型开发。
这笔投资规模不小,反映出 Anthropic 正在将竞争焦点从模型能力本身转向生态壁垒。在 OpenAI 和 Google 疯狂签约企业客户的当下,这一步棋意在建立更深的护城河。
来源: Anthropic News
3. Anthropic Institute:人才培养与研究的内部孵化器
3月11日,Anthropic 发布了 Anthropic Institute,这是一个内部人才培养与研究孵化项目。Anthropic 显然意识到,AI 公司的核心竞争力不仅是模型,还有人才密度和研发速度。该学院将为内部研究人员提供跨学科协作和资源支持。
来源: Anthropic News
4. 悉尼:Anthropic 亚太第四站
3月10日,Anthropic 宣布悉尼将成为其在亚太地区的第四个办公室(前三个分别在旧金山、巴黎、东京)。澳大利亚在 AI 监管和部署上的相对开放态度,正在吸引越来越多的 AI 公司在此布局。
来源: Anthropic News
5. 与 Mozilla 合作:Firefox 安全能力升级
3月6日,Anthropic 宣布与 Mozilla 合作提升 Firefox 浏览器的安全性。这不是一次品牌合作,而是深度的技术集成——Claude 的安全能力被嵌入 Firefox 的威胁检测流程中。这意味着 Anthropic 在将 AI 安全能力输出到浏览器层的探索。
来源: Anthropic News
6. 五角大楼争议:Anthropic 的立场
3月5日和2月27日,Anthropic 连续发布了两份关于与美国国防部关系的声明。起因是美国War Secretary Pete Hegseth 质疑 Anthropic 等 AI 公司对国家安全的影响。Anthropic CEO Dario Amodei 在2月26日亲自发声,重申 Anthropic 坚持安全优先的原则,并表示与军方的任何接触都受到 Responsible Scaling Policy 的约束。

来源: Anthropic News - Where things stand | Statement
7. 收购 Vercept:补强计算机使用能力
2月25日,Anthropic 收购了 Vercept 公司,旨在提升 Claude 的计算机使用(Computer Use)能力。Vercept 的技术能够更精准地理解和操作用户界面,这对 Anthropic 推进 Agent 能力至关重要。这是一次以技术补强为目标的战略性收购。
来源: Anthropic News
8. Responsible Scaling Policy 3.0:更严格的安全底线
2月24日,Anthropic 发布了Responsible Scaling Policy(负责任扩展政策)3.0版本。这份政策规定了在不同模型能力阶段必须启用哪些安全措施。新版本进一步收紧了 AI Safety Levels(ASL)的触发阈值,并增加了对供应链安全的覆盖。
来源: Anthropic News
9. 检测与防止蒸馏攻击
2月23日,Anthropic 发布了一篇关于检测和防止模型蒸馏(Distillation)攻击的技术文章。蒸馏攻击指通过查询 API 反复获取模型输出,从而"蒸馏"出一个能力相近的廉价替代品。Anthropic 宣布已在生产环境中部署了检测机制,并呼吁行业共同应对这一威胁。
来源: Anthropic News
编辑点评
这一轮 Anthropic 的公告有一个清晰主线:从模型能力竞争转向生态与安全竞争。 Partner Network 砸 1 亿美元、推出 Anthropic Institute、收购 Vercept——这些都不是"让模型更强",而是"让 Claude 更难被替代、更安全地被使用"。与此同时,五角大楼争议也说明,AI 公司的政策公关能力正在变得和模型性能一样重要。Anthropic 的策略是用透明换信任,这步棋走得稳,但能否在商业化上追上 OpenAI,还有待观察。



