(原标题:完成100万颗TPU大交易,谷歌正式向英伟达宣战)
公众号记得加星标,第一时间看推送不会错过。
来 源: 内容编译自CNBC。
Anthropic和Google周四正式宣布了他们的云合作伙伴关系,该协议使这家人工智能公司能够使用多达一百万个谷歌定制设计的张量处理单元(TPU)。
该交易价值数百亿美元,是该公司迄今为止最大的 TPU 承诺,预计将在 2026 年带来超过 1 千兆瓦的 AI 计算能力。
业内估计,1千兆瓦数据中心的成本约为500亿美元,其中约350亿美元通常用于芯片。
尽管竞争对手们提出了更高的目标,其中最突出的是 OpenAI 的 33 千兆瓦“星际之门”,但 Anthropic 的举动是一种悄无声息的权力游戏,其根源在于执行,而不是炫耀。
该公司由前 OpenAI 研究人员创立,刻意采取了一种更慢、更稳定的精神,高效、多样化,并专注于企业市场。
Anthropic 基础设施战略的关键是其多云架构。
该公司的 Claude 系列语言模型可在 Google 的 TPU、亚马逊的定制的 Trainium 芯片和Nvidia 的GPU上运行,每个平台分配专门的工作负载,如训练、推理和研究。
谷歌表示,TPU 为 Anthropic 提供了“强大的性价比和效率”。
Anthropic 首席财务官 Krishna Rao 在一份新闻稿中表示:“Anthropic 和谷歌有着长期的合作关系,这次最新的扩展将帮助我们继续发展定义人工智能前沿所需的计算能力。”
Anthropic 能够跨供应商分散工作负载,从而能够针对价格、性能和功率限制进行微调。
据熟悉该公司基础设施战略的人士透露,在这种模式下,每一美元的计算成本都比锁定在单一供应商架构中更有意义。
谷歌方面则倾向于建立合作伙伴关系。
谷歌云首席执行官托马斯·库里安 (Thomas Kurian) 在一份新闻稿中表示:“Anthropic 选择大幅扩大 TPU 的使用范围,反映了其团队多年来对 TPU 的强劲性价比和效率的认可。”他同时指出,该公司第七代“Ironwood”加速器是其成熟产品组合的一部分。
Claude的收入飞速增长
Anthropic 不断增长的计算需求反映了其业务的爆炸式增长。
该公司的年营收运行率目前接近70亿美元,Claude为超过30万家企业提供支持——在过去两年中,其业务增长了惊人的300倍。过去一年,其大型客户(每家贡献的运行率收入超过10万美元)的数量增长了近七倍。
该公司的代理编码助手Claude Code在推出仅两个月内就创造了 5 亿美元的年收入,Anthropic 声称这使其成为历史上“增长最快的产品”。
虽然谷歌正在为 Anthropic 的下一阶段计算扩展提供支持,但亚马逊仍然是其最深入的合作伙伴。
这家零售和云计算巨头迄今已向 Anthropic 投资了 80 亿美元,是谷歌已确认的 30 亿美元股权的两倍多。
尽管如此,AWS 仍被视为 Anthropic 的主要云提供商,因此其影响力不仅仅是财务上的,更是结构性的。
该公司为 Claude 定制的超级计算机(名为“Rainier 项目”)搭载亚马逊的 Trainium 2 芯片。这种转变不仅对速度至关重要,也对成本至关重要:Trainium 避开了其他芯片的溢价,从而实现了单位成本下的更多计算能力。
华尔街已经看到了成效。
Rothschild & Co Redburn 分析师Alex Haissl 估计,Anthropic 在去年第四季度和今年第一季度为 AWS 的增长贡献了 1 到 2 个百分点,预计其贡献将在 2025 年下半年超过 5 个百分点。
Wedbush 的 Scott Devitt 此前曾告诉 CNBC,一旦 Claude 成为企业开发人员的默认工具,其使用量就会直接流入 AWS 收入——他相信这种动态将推动 AWS 在未来“很多年”的增长。
与此同时,谷歌继续发挥着关键作用。今年1月,谷歌同意向Anthropic追加10亿美元的投资,此前该公司已投资20亿美元,持有10%的股权。
至关重要的是,Anthropic 的多云方法在周一的 AWS 中断期间表现出了弹性,由于其多样化的架构,此次中断并未对 Claude 造成影响。
尽管如此,Anthropic 并没有偏袒任何一方。该公司掌控着模型权重、定价和客户数据,并且不与任何云提供商签订独家协议。随着超大规模企业之间的竞争加剧,这种中立立场可能成为关键。
谷歌TPU,十年崛起
在几乎完全由英伟达公司掌控的人工智能芯片行业,谷歌十多年前专为人工智能任务开发的芯片终于在其母公司之外获得了发展,成为训练和运行复杂人工智能模型的一种方式。
Anthropic PBC 周四宣布与 Alphabet Inc. 旗下谷歌达成协议,为这家人工智能初创公司提供超过 1 千兆瓦的额外计算能力,价值数百亿美元。该协议使 Anthropic 能够使用多达 100 万个谷歌张量处理单元 (TPU)——该公司专为加速机器学习工作负载而设计的芯片——并扩大其对这家互联网巨头云服务的使用。
随着人工智能行业的竞争者们努力满足日益增长的需求,他们一直在寻找不依赖于英伟达加速器芯片的计算能力提升方法——既可以减少对这家芯片巨头昂贵产品的依赖,也可以减轻芯片短缺的影响。虽然 Anthropic 已经是 TPU 的客户,但部署量的大幅增加是迄今为止对谷歌技术最有力的认可之一,也代表着其云业务的胜利,该业务长期以来一直落后于亚马逊公司和微软公司。
TPU 的热潮可能会吸引其他 AI 初创公司和新客户关注谷歌云,帮助该公司充分利用多年来在芯片上的投资。
Seaport 分析师 Jay Goldberg 表示,谷歌与 Anthropic 的交易是“对 TPU 的有力验证”,这可能会吸引更多公司尝试。“很多人已经在考虑这个问题了,现在可能还会有更多人加入进来。”
图形处理单元(GPU)是芯片市场中由英伟达主导的部分,其设计初衷是为了加速图形渲染——主要用于视频游戏和其他视觉效果应用——但事实证明,由于其能够处理海量数据和计算,它非常适合训练人工智能模型。而TPU则是一种专用集成电路(ASIC),即专为特定用途而设计的微芯片。
谷歌于2013年开始研发其首款TPU,并于两年后正式发布。最初,它用于加速公司的网络搜索引擎并提高效率。谷歌于2018年首次将TPU应用于其云平台,允许客户注册使用与提升搜索引擎性能相同的技术的计算服务。
TPU也被谷歌自身应用程序用作人工智能和机器学习任务的加速器。由于谷歌及其旗下 DeepMind 部门开发了像 Gemini 这样的尖端 AI 模型,该公司能够将 AI 团队的经验教训反馈给芯片设计师,而定制芯片的能力也使 AI 团队受益匪浅。
“十多年前,我们构建了第一个基于 TPU 的系统,当时的真正目的是解决我们面临的一些内部扩展挑战,”谷歌云副总裁兼 AI 和计算基础设施总经理 Mark Lohmeyer 在 9 月份的一次会议演讲中说道。“后来,当我们将这些计算能力交到谷歌 DeepMind 和其他公司的研究人员手中时,这在很多方面直接促成了 Transformer 的发明,”他指的是谷歌提出的开创性 AI 架构,它已成为当今模型的基础。
Nvidia 的芯片已成为 AI 市场的黄金标准,因为该公司生产 GPU 的时间远超其他任何公司,而且这些芯片功能强大、更新频繁、提供全套相关软件,并且通用性足以胜任各种任务。然而,由于需求飙升,它们价格不菲,而且在过去几年中长期供不应求。
Seaport 的 Goldberg 表示,TPU 通常能够更好地处理 AI 工作负载,因为它们是专门为此设计的。Goldberg 罕见地将 Nvidia 的股票评级定为“卖出”。他表示,这意味着该公司可以“去掉芯片中许多其他并非为 AI 量身定制的部分”。如今,该产品已发展到第七代,谷歌提升了芯片的性能,使其更加强大,并降低了使用所需的能耗,从而降低了运行成本。
TPU 的现有客户包括 Safe Superintelligence(由 OpenAI 联合创始人 Ilya Sutskever 于去年创立的初创公司)、Salesforce Inc. 和 Midjourney,以及 Anthropic。
目前,想要使用谷歌 TPU 的企业必须注册租用谷歌云的计算能力。但这种情况可能很快就会改变——彭博行业研究分析师表示,与 Anthropic 的交易使得其向其他云平台扩张的可能性更大。
“谷歌与 Anthropic 的潜在交易表明,谷歌的张量处理单元 (TPU) 将在谷歌云之外,向其他新兴云平台进一步商业化,”彭博行业研究的 Mandeep Singh 和 Robert Biggar 在周三的一份报告中写道,
他们指的是为人工智能提供计算能力的小型公司。
可以肯定的是,目前还没有任何人(包括谷歌)想要完全取代英伟达的 GPU;人工智能发展的步伐意味着目前这是不可能的。 Gartner 分析师 Gaurav Gupta 表示,尽管谷歌拥有自己的芯片,但它仍然是英伟达最大的客户之一,因为它必须为客户保持灵活性。如果客户的算法或模型发生变化,GPU 更适合处理更广泛的工作负载。
Key Banc 分析师 Justin Patterson 对此表示赞同,他表示张量处理单元 (TPU) 的“通用性不如”更通用的 GPU。但 Patterson 在给客户的报告中写道,与 Anthropic 的交易既表明谷歌云正在扩大市场份额,也表明 TPU 具有“战略重要性”。
谷歌 TPU 的最新版本 Ironwood 于 4 月发布。它采用液冷设计,专为运行 AI 推理工作负载而设计——这意味着使用 AI 模型而不是训练它们。它有两种配置可供选择——256 个芯片的 pod 或更大的 9,216 个芯片的 pod。
谷歌TPU项目的资深员工如今正领导着芯片初创公司或其他大型人工智能公司的关键项目。推理芯片初创公司Groq由Jonathan Ross掌舵,他参与了TPU的部分研发工作。其他参与谷歌TPU项目的人包括ChatGPT开发商OpenAI的硬件副总裁Richard Ho,以及Safeen Huda。据他的领英信息显示,Huda加入OpenAI从事软硬件协同设计工作。
通过帮助TPU成为人工智能的主力,这些前谷歌员工继续将这家互联网公司的影响力扩展到整个人工智能行业。谷歌员工将多年的工作经验视为其产品成功的关键驱动力。
谷歌的Lohmeyer在9月份表示:“这种级别的经验是无可替代的。”
https://www.bloomberg.com/news/articles/2025-10-23/google-tpus-find-sweet-spot-of-ai-demand-a-decade-after-chip-s-debut
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第4204期内容,欢迎关注。
加星标第一时间看推送,小号防走丢
求推荐










