(原标题:英伟达H20,在中国卖疯了)
如果您希望可以时常见面,欢迎标星收藏哦~
来源:内容编译自tomshardware,谢谢。
Nvidia 在 2023 年和 2024 年的飙升得益于人工智能领域对 GPU 的爆炸性需求,主要是在美国、中东国家和中国。由于美国存在出口限制,并且 Nvidia 无法在没有政府出口许可的情况下将其最高端的 Hopper H100、H200 和 H800 处理器出售给中国,因此它转而将其削减版的HGX H20 GPU 出售给中国实体。然而,分析师Claus Aasholm表示,尽管削减了,但 HGX H20 的销售表现却异常出色。您可以在下面的推文中嵌入的表格中查看该产品的销售表现。
“通过了中国禁令的降级版 H20 系统表现非常好,”Aasholm 写道。“环比增长 50%,这是 Nvidia 最成功的产品。H100 业务‘仅’环比增长 25%。”
根据 Claus Aasholm 的发现,尽管 HGX H20 GPU 的性能与成熟的 H100 相比大幅下降,但 Nvidia 仍通过销售该 GPU 赚取了数百亿美元。人工智能确实是推动几乎所有类型的数据中心硬件销售的大趋势,包括 Nvidia 的 Hopper GPU,包括 HGX H20。
世界主要经济体——美国和中国——正在竞相获得最大的人工智能能力。对于美国来说,增长或多或少是自然而然的:更多的资金和更多的硬件等于更高的能力,但这还不够。OpenAI 本身就赚了数十亿美元,但它需要更多的钱来获得更多的硬件,从而获得人工智能训练和推理能力。
尽管存在种种限制,但中国的人工智能能力(无论是硬件还是大型模型开发)仍在不断扩大。就在上周,中国人工智能公司 Deepseek 在一篇论文中透露,它已经在 2,048 个 Nvidia H800 GPU 集群上训练了其 6710 亿参数的 DeepSeek-V3 混合专家 (MoE:Mixture-of-Experts) 语言模型,耗时两个月,共计 280 万个 GPU 小时。相比之下,Meta 投入了 11 倍的计算资源(3080 万个 GPU 小时)来训练拥有 4050 亿个参数的 Llama 3,耗时 54 天,使用了 16,384 个 H100 GPU。
随着时间的推移,中国本土GPU公司推出的加速器可能会蚕食 Nvidia 目前在中国数据中心的近乎垄断地位。然而,这不可能一蹴而就。
https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-defeatured-h20-gpus-in-china-sell-surprisingly-well-50-percent-increase-every-quarter-in-sanctions-compliant-gpus-for-chinese-ai-customers
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3991期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦