Anthropic 签下史上最大算力承诺,收入四个月翻了三倍多

Anthropic 宣布与谷歌和博通签署新协议,获得多吉瓦级下一代 TPU 算力,预计自 2027 年起陆续上线。这是公司迄今最大规模的算力承诺,绝大部分新增算力将部署在美国。

这笔算力交易的背后,是 Anthropic 商业化速度的持续加快。

收入和客户的双倍速增长

几个关键数字的变化节奏值得关注:

年化收入从 2025 年底的约 90 亿美元,涨到目前超过 300 亿美元,不到四个月翻了三倍多。

年化支出超过 100 万美元的企业客户数量,从 2 月份披露的 500 多家增长到 1000 多家。翻倍只用了不到两个月。

算力基础设施

这种增速在 enterprise SaaS 领域非常少见。即使是高速增长的云计算早期阶段,也很少能在两个月内让大客户数量翻倍。

多芯片策略延续

Anthropic 在芯片选择上延续了多平台路线:AWS Trainium、谷歌 TPU、英伟达 GPU 三线并行,按工作负载匹配最合适的硬件。

这次与谷歌和博通的新协议,是在去年 10 月宣布扩大 Google Cloud TPU 使用量的基础上进一步加码。但 Anthropic 同时明确表示,亚马逊仍是主要云服务和训练合作伙伴,双方在 Project Rainier 上持续合作。

Claude 目前是全球唯一同时在 AWS Bedrock、Google Cloud Vertex AI 和 Microsoft Azure Foundry 三大云平台上线的前沿 AI 模型。三线云平台的覆盖本身就是一个不小的竞争优势——对大型企业客户来说,不被锁定在单一云厂商上是有实际决策权重的。

数据中心

算力竞赛的逻辑

多吉瓦级 TPU 算力,加上绝大部分部署在美国——这是在延续 2025 年 11 月 Anthropic 承诺投资 500 亿美元加强美国计算基础设施的路线。对 Anthropic 来说,算力就是壁垒。前沿模型的训练规模、推理的并发能力、新模型的迭代速度,都直接取决于能拿到多少算力。

而从时间线看,2027 年上线意味着 Anthropic 在为下一代 Claude 模型的训练周期做储备。当前这一代模型的商业化已经跑起来了,下一代的竞争窗口正在逼近。

怎么看

Anthropic 这轮扩张的核心信号很清晰:商业化在加速,算力储备在加速,且选择了多芯片、多云平台的风险分散策略。收入增速远超行业平均水平,企业客户翻倍的节奏说明 Claude 在企业端的采用已经过了概念验证阶段,进入了规模化部署。

对行业而言,Anthropic、OpenAI、Google DeepMind 三家前沿实验室在算力上的持续加码,意味着 2027-2028 年可能会迎来新一轮模型能力的跃迁。谁先把下一代模型跑出来、谁能扛住推理成本的规模化压力,将是下一个阶段的关键变量。

来源:Anthropic 官方公告

相关推荐