(原标题:自研AI芯片浪潮席卷大厂! Meta(META.US)拟今年部署自研芯片 聚焦AI推理端)
智通财经APP获悉,社交媒体Facebook和Instagram母公司Meta Platforms(META.US)计划今年在其数据中心部署一款新版本的定制化AI芯片,旨在支持其人工智能(AI)技术发展。这款芯片是Meta去年宣布的“第二代内部芯片生产线”,可能有助于减少对占据AI芯片市场主导地位的英伟达(NVDA.US)旗下昂贵AI芯片的重度依赖——这也是谷歌和微软选择自研AI芯片的原因之一,并在Meta计划推出新的人工智能产品之际,控制与运行人工智能训练/推理工作负载相关的不断上升的成本。
这家全球最大规模的社交媒体公司一直在不断提升计算能力,以支持对算力和电力消耗极高的生成式人工智能产品,该科技巨头正在将其开发的生成式AI产品Meta AI推向全球的Facebook、Instagram和WhatsApp等Meta家族应用程序,以及Ray-Ban智能眼镜等硬件设备。Meta已经斥资数十亿美元积累了大量AI芯片,比如英伟达H100,并重新配置了数据中心以适应这些芯片。
硅研究集团SemiAnalysis的创始人迪伦•帕特尔(Dylan Patel)表示,以Meta的运营规模,成功部署自己的AI芯片,每年可能将节省数亿美元的能源成本和数十亿美元的芯片采购成本。
运行ChatGPT等生成式人工智能应用所需的芯片、基础设施和能源已经成为科技公司投资的“巨大天坑”,在一定程度上抵消了围绕这项技术的兴奋热潮所带来的收益。
科技巨头们纷纷拥抱自研AI芯片
Meta的一位发言人证实了将于2024年投产的计划,称该芯片将与该公司正在购买的数十万个现成英伟达 H100等AI芯片协同工作。该发言人在一份声明中表示:“我们认为,我们内部开发的AI加速器在为Meta特定的AI工作负载提供最佳的性能和效率组合方面,将与市售的商用AI芯片形成高度互补。”
Meta首席执行官马克·扎克伯格在上个月曾表示,该公司计划在今年年底前拥有大约35万颗来自英伟达的旗舰AI芯片——H100,这是英伟达研发的当前全球最受欢迎的用于人工智能工作负载的服务器GPU。他在当时强调,与自研版全新AI芯片以及其他潜在供应商的AI芯片加起来后,Meta将累积等效于60万个H100 AI芯片的计算能力。
作为该计划的一部分,部署自己的自研AI芯片对Meta的内部人工智能芯片项目来说是一个积极的转折,此前该公司高管在2022年决定停止该芯片的“第一次迭代”。
相反,该公司选择购买价值数十亿美元的英伟达AI芯片,后者在一个名为“训练”的人工智能负载工作过程中几乎占据垄断地位,该过程涉及将大量数据集输入模型,教它们如何执行任务。由于英伟达AI芯片的独有架构,英伟达H100等芯片在推理领域同样能够胜任,但是推理领域算力要求远不及训练端,因此在推理领域面临的竞争对手相对较多。
相比于英伟达或者AMD的通用型AI芯片,自研AI芯片,也被称作ASIC,往往更适合科技公司本身的人工智能工作负载需求且成本较低。
比如,云计算巨头微软和亚马逊选择自研AI芯片主要是为了优化特定AI计算任务的性能和成本效率,同时减少对英伟达等外部供应商的依赖。自研AI芯片往往能够更好地整合进公司的云计算平台和服务中,提供定制化的解决方案以满足特定的业务需求。
全球第一大公有云巨头——亚马逊旗下的AWS近期宣布推出为生成式AI和机器学习训练而设计全新自研AI芯片AWS Trainium2,性能比上一代芯片提高到4倍,可提供65ExaFlops超算性能。微软近期宣布推出第一款定制的自研CPU 系列 Azure Cobalt 和AI加速芯片 Azure Maia,后者是微软首款人工智能芯片,主要针对大语言模型训练,预计将于明年初开始在微软Azure数据中心推出。另一大云巨头谷歌近期宣布推出新版本的TPU芯片TPU v5p,旨在大幅缩减训练大语言模型时间投入,v5p是今年早些时候全面推出的Cloud TPU v5e的更新版本。
Meta自研版全新AI芯片聚焦推理端
相较于AI训练,AI推理领域对于“海量数据轰炸”应用背景下的GPU并行化算力需求远远不及训练领域,推理进程涉及应用已经训练好的模型来进行决策或识别,极度擅长复杂逻辑处理任务和控制流任务的以CPU为核心的中央处理器足以高效率地应付诸多推理场景。
从产业发展趋势来看,AI算力负载大概率将逐步从训练全面向推理端迁移,这意味着AI芯片门槛可能将显著降低,覆盖可穿戴设备、电动汽车以及物联网等领域的芯片公司未来有望全面渗透至AI推理芯片领域。
华尔街大行摩根士丹利在2024年十大投资策略主题中指出,随着消费类边缘设备在数据处理、存储端和电池续航方面的大幅改进,2024年将有更多催化剂促使边缘AI这一细分领域迎头赶上,AI行业的发展重点也将从“训练”全面转向“推理”。
边缘AI是指在端侧设备(如PC、智能手机、IoT设备和汽车等)上直接进行AI数据流处理的技术。市场研究机构Gartner预计到2025年,50%企业数据将在边缘端创建,跨越数十亿台设备。这意味着AI大模型的推理(即应用模型进行决策或识别的过程)有望批量在端侧设备进行,而不是在远程服务器或云端。
高通CEO Amon则指出,芯片制造商们的主要战场不久后将由“训练”转向“推理”。Amon在近日接受采访时表示:“随着AI大模型变得更精简、能够在设备上运行并专注于推理任务,芯片制造商的主要市场将转向‘推理’,即模型应用。预计数据中心也将对专门用于已训练模型推理任务的处理器产生兴趣,一切都将助力推理市场规模超越训练市场。”
据了解,Meta的这款全新自研AI芯片内部被称为“Artemis”,和它的前身一样,只能执行一个被称为“推理”的人工智能负载工作过程,在这个过程中,模型被要求使用它们的算法来做出排名判断等响应,并对用户的提示做出回应。
有媒体曾在去年报道称,Meta正在开发一款更有雄心的芯片,像英伟达H100一样,能够同时进行训练和推理。
这家总部位于加州门洛帕克的科技巨头曾于去年曾分享了第一代Meta训练和推理加速器(MTIA)项目的相关细节。但是这一公告仅仅将该版本的芯片描述为一个学习机会。该计划此后并未被Meta提及。
帕特尔表示,尽管早期出现了一些难以解决的问题,但在处理Meta的推荐模型等推理功能时,推理领域的AI芯片可能比耗电的英伟达H100等芯片要高效得多。“因此,大量的资金和电力将有望全面节省下来。”