(原标题:亚马逊(AMZN.US)AWS独辟蹊径 打造“AI模型超市“构筑差异化竞争壁垒)
智通财经APP获悉,面对人工智能军备竞赛,亚马逊(AMZN.US)云科技(AWS)正走出一条差异化道路——不押注单一大型语言模型(LLM)的胜负,而是通过构建模型超市,让客户自由选择技术路线。这种策略正帮助AWS在云计算战场构筑独特壁垒。
作为AWS人工智能战略的核心,Bedrock服务上线两年即成为增长引擎。今年一季度,该平台贡献收入占AWS总营收超18%,其核心竞争力在于提供超过100款模型组成的"AI工具箱"。
图1
AWS计算与网络副总裁戴夫·布朗直言:"没有哪个模型能通吃所有场景。"这种认知在DeepSeek模型事件中得到印证——当这家中国初创企业推出颠覆性模型后,AWS仅用一周便在Bedrock上线其托管版本,展现惊人的技术响应速度。
据了解,Bedrock的诞生可追溯至2020年。当时产品总监阿图尔·迪奥撰写内部备忘录,提议开发基于LLM的代码生成工具。尽管时任CEO安迪·贾西初期认为这是"白日梦",但2023年Code Whisperer正式推出时,团队敏锐意识到:客户真正需要的是跨模型的选择权。这种认知转变促使AWS成为首个提供多模型选择平台的云服务商。
为避免过度依赖单一模型,AWS采取"自研+投资"的组合策略。2024 年 11 月,AWS 将对 Anthropic 的投资翻倍至 80 亿美元,这笔交易要求 Anthropic 仅使用 AWS 的芯片来训练其大型语言模型 Claude。(相比之下,微软已向 OpenAI 投资超过 130 亿美元。)这笔 80 亿美元的交易使亚马逊能够证明其人工智能培训基础设施并加深与一家 LLM 提供商的联系,同时继续为客户提供 Bedrock 上的多种模型选择。
此外,亚马逊还在 2024 年底,即 ChatGPT 推出两年后,推出了自己的基础模型系列,名为 Nova。这种双轨并行模式使AWS既能通过Anthropic绑定深度合作,又能保持平台开放性。Anthropic市场合作主管丹·罗森塔尔坦言:"我们专注在优势领域取胜,客户需要多模型选择时,Bedrock是最佳载体。"
在硬件层面,AWS正通过自研芯片挑战英伟达垄断地位。Bedrock平台允许客户自由选择AWS自研芯片或英特尔(INTC.US)、AMD(AMD.US)、英伟达(NVDA.US)硬件,这种"合作竞争"模式直指行业痛点:英伟达芯片虽性能强劲,但AWS通过优化技术,降低自家芯片在特定场景下成本。随着2025年资本支出预计达1000亿美元(较2024年增长20%),这场算力成本之战正进入白热化。
尽管AWS一季度营收同比增长16.9%至292.7亿美元,但已连续三个季度不及预期。贾西在股东信中披露的"AI收入三位数增长"数据,折射出战略转型的紧迫性。当前亚马逊正将绝大部分资本支出投向AI领域,其自研芯片的性价比优势,可能成为突破英伟达封锁的关键变量。
图2
在这场AI基础设施争夺战中,AWS正用实际行动诠释新竞争法则:当行业聚焦模型制高点时,真正的决胜场或许在于谁能为开发者提供更自由的技术组合、更具性价比的算力方案。这种"不把鸡蛋放在一个篮子里"的智慧,恰是云计算巨头对抗科技新贵的独特筹码。