(原标题:亚马逊暂停一款芯片开发)
如果您希望可以时常见面,欢迎标星收藏哦~
来源:内容编译自日经,谢谢。
亚马逊已停止开发 Inferentia 人工智能芯片,转而专注于用于训练人工智能模型的半导体,该公司认为这一领域为与人工智能芯片领导者 Nvidia 竞争提供了更好的途径。
自 2018 年宣布进入 AI 芯片领域以来,该公司的云部门亚马逊网络服务 (AWS) 已经开发了用于推理预测的定制芯片 Inferentia 和用于 AI 模型训练的 Trainium 芯片。
亚马逊的云服务已将这两条产品线提供给人工智能公司。但 AWS 计算总监 Rahul Kulkarni 周三对日经新闻和其他新闻媒体表示,“产品线将会融合。”
Kulkarni 表示:“我们将专注于 Trainium,提供推理和训练性能。”
AWS 将继续支持当前产品线,包括 2022 年发布的 Inferentia2 芯片,“但我们不会在 Inferentia 上积极开发任何进一步的功能,”Kulkarni 表示。
Trainium 拥有更大的内存容量,支持更广泛的数据格式,还包含使用多台服务器同时处理大量数据时实现快速计算和通信的机制。
Inferentia 专注于以较低的成本执行较少量的计算。随着生成式人工智能变得越来越先进,训练和推理都需要更大的计算量。因此,使用不同芯片的好处正在逐渐消失。
Kulkarni 表示:“通过将 Trainium 作为单一统一的产品,我们可以达到相同水平的优化和成本效益优势。”
周二,在拉斯维加斯举行的年度科技盛会上,亚马逊宣布 Trainium2 芯片现已上市。该公司还公布了在 2025 年下半年发布第三代 Trainium3 芯片的计划。
据亚马逊介绍,Trainium3 将采用先进的 3 纳米芯片制造工艺制造,计算性能将比 Trainium2 提高一倍。
亚马逊的目标是打破英伟达在人工智能芯片市场的主导地位,目前英伟达占据全球约 90% 的份额。亚马逊一直在向云客户大力推广 Trainium2,强调该芯片的运行成本低于英伟达产品。
周二,苹果表示将使用 Trainium2 芯片进行自己的 AI 开发。美国 AI 初创公司 Anthropic 正在从亚马逊获得 80 亿美元投资,该公司正在获得数十万个 Trainium2 芯片,以协助其生成式 AI 模型的开发。
AWS的AI芯片,有何不同?
在德克萨斯州奥斯汀的一栋没有标记的办公楼里,两个小房间里放着少量的亚马逊员工设计了两种用于训练和加速生成式 AI 的微芯片。这些定制芯片 Inferentia 和 Trainium 为 AWS 客户提供了一种在Nvidia上训练大型语言模型的替代方案,因为GPU的采购变得越来越困难并且成本越来越高。
亚马逊网络方面曾表示:“全世界都希望拥有更多用于生成 AI 的芯片,无论是 GPU 还是亚马逊自己设计的芯片。我认为,我们比地球上任何其他公司都更有能力提供我们的客户共同需要的容量。”
虽然AWS在大模型方面进展不是很快,但从长远来看,亚马逊的定制硅片可以为其在生成人工智能方面带来优势。
“我认为真正的区别在于他们所具备的技术能力,”他说。“因为你猜怎么着?微软没有 Trainium 或 Inferentia,”他说。
早在 2013 年,AWS 就悄然开始生产定制硅片,当时的专用硬件名为 Nitro。现在,它是产量最高的 AWS 芯片。亚马逊告诉 CNBC,每台 AWS 服务器中至少有一台这样的芯片,目前使用的服务器总数超过 2000 万台。
2015 年,亚马逊收购了以色列芯片初创公司 Annapurna Labs。随后在 2018 年,亚马逊推出了基于 Arm 的服务器芯片 Graviton ,与AMD和英特尔等巨头的 x86 CPU 竞争。
“Arm 的服务器总销售额可能占到 10% 左右,其中很大一部分将来自亚马逊。因此,在 CPU 方面,他们表现相当不错,”Bernstein Research 高级分析师 Stacy Rasgon 表示。
此外,在 2018 年,亚马逊推出了专注于 AI 的芯片。两年前,谷歌宣布推出首款张量处理器单元 (TPU)。微软尚未宣布其一直在研发的 Athena AI 芯片,据报道,该芯片是与 AMD 合作开发的。
CNBC 参观了位于德克萨斯州奥斯汀的亚马逊芯片实验室,Trainium 和 Inferentia 就是在这里开发和测试的。产品副总裁 Matt Wood 解释了这两款芯片的用途。
“机器学习分为这两个不同的阶段。因此,你要训练机器学习模型,然后针对这些训练好的模型进行推理,”Wood 说。“与在 AWS 上训练机器学习模型的任何其他方式相比,Trainium 在性价比方面提供了约 50% 的提升。”
Trainium 于 2021 年首次上市,此前 Inferentia 于 2019 年发布,目前已是第二代。
Inferentia 允许客户“提供非常低成本、高吞吐量、低延迟的机器学习推理,也就是当你在生成式 AI 模型中输入提示时的所有预测,所有这些都会在生成式 AI 模型中进行处理并给出响应”,Wood 说。
不过,目前 Nvidia 的 GPU 在训练模型方面仍占主导地位。7 月,AWS推出了搭载 Nvidia H100 的新型 AI 加速硬件。
“Nvidia 芯片拥有一个庞大的软件生态系统,在过去 15 年里,它已经围绕着芯片建立了一个其他公司都没有的生态系统,”Rasgon 说。“目前人工智能的最大赢家是 Nvidia。”
https://asia.nikkei.com/Business/Technology/Artificial-intelligence/Amazon-halts-Inferentia-AI-chip-development-as-it-takes-on-Nvidia
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3968期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦