首页 - 财经 - 产业观察 - 正文

又一个芯片架构,走向消亡?

关注证券之星官方微博:

(原标题:又一个芯片架构,走向消亡?)

如果您希望可以时常见面,欢迎标星收藏哦~

2000 年的东京,索尼电脑娱乐公司(SCEI)总部的会议室里,久多良木健端起手中的咖啡,望向窗外的东京塔。他的脑海中浮现的并不是 PlayStation 2 的辉煌战绩,而是更远大的愿景——一个打破计算瓶颈的未来。

在一次内部会议上,他向团队展示了一张草图,那是一个关于“Cell 处理器”的概念雏形。他用生物学的比喻来描述:“Cell 处理器就像人体的细胞,而宽带网络则是由无数细胞组成的社会。” 在他看来,如今的计算架构——服务器、路由器、交换机——已经被 20 世纪 50 年代的计算模式束缚,必须有新的突破。

强强合作

1999 年,索尼内部对未来计算架构的讨论早已展开,但要真正让 Cell 概念落地,索尼需要技术实力更为雄厚的合作伙伴。此时,IBM 也在寻找突破。IBM 微电子公司副总裁 Bijan Davari 认为,现有的 PC 处理器架构已经走到了极限,必须从零开始设计新架构。

与此同时,东芝也在寻找能够增强其半导体竞争力的机会。东芝半导体公司总裁 Yasuo Morimoto 意识到,未来的消费电子市场不仅仅依赖于处理器,更需要一整套先进的存储和计算解决方案。三家公司一拍即合,2000 年底,索尼、IBM 和东芝宣布共同开发 Cell 处理器。

合作计划的发布会上,久多良木健带着他标志性的激情宣布:“Cell 将会像 IBM 的 Deep Blue 一样集成在一个芯片上。” 这个比肩国际象棋超级计算机的芯片,目标是每秒 1 万亿次浮点运算,未来甚至可以通过并行计算达到惊人的 1 千万亿次。

IBM 计划投资 4 亿美元,在德克萨斯州奥斯汀的 IBM 工厂内设立设计中心,并在纽约州菲什基尔建设 300 毫米晶圆厂。索尼获得了 IBM 的 100 纳米 SOI 工艺授权,东芝则计划使用自己的 100 纳米工艺技术。

“我们从一张白纸开始,想象五年后需要怎样的处理器。” IBM 微电子公司新兴产品总监 Lisa Su 回忆道。这场豪赌不仅仅关乎技术突破,更是对未来计算架构的一次彻底革新。

2003 年初,IBM 在纽约州菲什基尔的工厂开始生产 100 纳米工艺,而东芝在横滨的研发中心同步推进。Cell 处理器的架构团队在奥斯汀的实验室里熬夜奋战,尝试将 5 到 10 个不同计算单元整合到一个芯片中。

IBM 微电子公司副总裁Bijan Davari 解释说:“Cell 的核心架构并不是 VLIW,而是一个全新的架构,每个芯片包含多个计算单元。” 初期版本不会在主处理器芯片上集成嵌入式 DRAM,但未来 70 纳米和 50 纳米工艺成熟后,eDRAM 将成为主流。

久多良木健强调,Cell 的目标是创建一个“真正连接在一起”的网络计算世界。他设想的理想网络将通过光纤连接,带宽甚至超过主内存带宽。到 2010 年,他希望有 1 亿到 2 亿个 Cell 处理器运行在全球各地,构建一个超级计算网络。

2004 年,首批基于 Cell 处理器的产品开始出现,而索尼最重要的次世代主机——PlayStation 3 就是Cell的主战场,在索尼和久多良木健看来,Cell 处理器的高并行计算能力,不仅适用于游戏,还能拓展到超算、数字消费电子、甚至人工智能领域,这颗处理器将成为未来索尼电子帝国版图的关键。

有意思的是,在Cell处理器发布的前夕,野心勃勃的久多良木健甚至找上了苹果CEO史蒂夫·乔布斯,向他推销Cell处理器,希望能这款跨时代的处理器能搭载在下一代Mac上,希望Cell的生态能够拓展至个人电脑与桌面端之上。

不过乔布斯拒绝了这个提议,他丝毫不掩饰对Cell设计的失望,表示Cell甚至不如用了这么多年的PowerPC,后续苹果在2005年的WWDC上宣布转投英特尔和x86的怀抱,Cell遭遇了一次小挫折。

强悍性能

为什么久多良木健如此有信心呢,答案当然离不开理论上Cell处理器的强悍性能。

根据索尼的官方文档,Cell处理器的核心是一颗强大的64位PowerPC处理单元(PPE)。这个控制中心负责整个系统的监督和协调,就像一个经验丰富的项目经理。它运行着操作系统,管理系统资源,并为八个协同处理单元分配任务。

“我们选择PowerPC作为控制核心是有意为之的,”一位IBM的资深设计师曾回忆道,“这为开发者提供了一个熟悉的起点,同时又能支持我们的创新愿景。”

这个控制单元配备了23级流水线和三级缓存层次结构,使其能够以高频率运行并高效地处理复杂任务。此外,它还具备双线程能力,可以同时管理多个控制流程,提高整体系统的响应性。

而围绕着PPE的是八个协同处理单元(SPE)——CELL架构中真正的革命性元素。这些单元不同于传统处理器,它们专为高吞吐量的数据并行处理而优化。

“当时,市场上没有任何处理器像CELL这样大胆地整合如此众多的专用核心,”一位参与项目的工程师解释道。“这是一次冒险,但我们相信这种方法能够实现前所未有的性能。”

每个SPE都具有256 KiB的本地存储空间,这种设计打破了常规。与传统的自动缓存不同,这种存储需要程序员直接管理,增加了编程的复杂性,但也带来了更高的效率和可预测性。SPE通过内存流控制器管理的DMA传输获取数据,每个时钟周期可以执行两条指令,极大地提升了并行处理能力。

而将这些处理单元连接在一起的是单元互连总线(EIB)——一个设计精巧的通信系统。它采用了四环结构,包括两个顺时针和两个逆时针数据环,可支持多个并发数据传输,总带宽超过200 GB/s。

“EIB的设计是CELL成功的关键之一,”一位系统架构师解释道。“没有这种高带宽连接,单个处理单元的强大能力将无法充分发挥。”

这种互连设计确保了处理单元之间以及与主内存之间的数据可以快速、高效地移动,最大限度地减少了通信瓶颈。

除此之外,Cell还采用了一种非常规的内存架构,SPE不能直接访问系统主内存,数据必须通过显式的DMA操作在本地存储和主内存之间移动。系统使用Rambus XDR内存,提供了较高的内存吞吐量,这种方法虽然增加了编程复杂性,但对于数据密集型应用,它提供了前所未有的性能和效率。

“我们意识到数据移动是现代处理器中的主要瓶颈,”系统架构师说,“通过让程序员直接控制数据流,我们可以避免传统缓存架构中的许多低效问题。”

按照久多良木健的构想,强大无比的Cell能带领索尼重回巅峰,夺回日本在芯片领域的话语权,只可惜,想法虽美好,现实却残酷。

连连折戟

2005年,Cell处理器的首批样品终于诞生。它采用90nm工艺制造,集成了一个主频高达4GHz的PowerPC核心(PPE)和多达32个协处理单元(SPE),峰值计算性能达到惊人的1TFLOPS!对于那个时代的处理器而言,这几乎是科幻级别的性能,远超英特尔的奔腾4或AMD的Athlon 64。

然而,过高的功耗、复杂的芯片架构和生产良率问题,让这个原型版本注定难以量产。于是,工程师们不得不“挥刀自宫”,大幅削减了SPE的数量,将最终量产版本的Cell BE(Broadband Engine)调整为1个3.2GHz的PPE和8个SPE,并屏蔽了其中的1个,最终只允许游戏开发者使用6个SPE。尽管如此,它在单精度浮点计算上的理论峰值仍然高达230 GFLOPS,远超同时期的PC处理器。

在2005年的E3发布会上,久多良木健站在舞台中央,神采飞扬地向全世界展示PS3的强大性能。他坚信,Cell处理器将彻底颠覆游戏行业,使PS3不仅仅是一台游戏机,而是一个划时代的数字娱乐终端。

他豪言道:“PlayStation 3 将开启娱乐产业的新纪元,它不仅仅是一台主机,而是一扇通向未来的窗口。”在他的描绘中,PS3不仅能够提供前所未有的视觉体验,还能承担科学计算、家庭娱乐中心等多重角色,彻底改变人们的生活方式。

然而,PS3的开发者们却发现,这款芯片并不像它的理论性能那么美好。传统的游戏开发者习惯于使用标准的x86或PowerPC架构,而Cell的SPE架构需要高度优化的并行代码,存储管理依赖DMA(直接存储器访问),甚至连基本的缓存一致性都要手动管理。

更严重的问题在于,索尼在PS3的架构设计上做出了妥协。Cell芯片自带的256MB XDR内存无法与GPU共享,索尼只能额外加入256MB GDDR3显存。这种内存分配方案大幅增加了成本,并且影响了数据传输效率。此外,PS3为了向下兼容PS1和PS2,还额外加入了一颗EE+GS芯片,进一步推高了硬件成本。

与此同时,索尼还希望借助PS3推广蓝光光盘技术,与HD-DVD阵营展开竞争,因此为PS3配备了昂贵的蓝光光驱。拆解报告显示,Cell芯片的成本约为89美元,RSX显卡的成本为129美元,蓝光光驱高达125美元,加上EE+GS芯片、散热系统等,PS3的制造成本最终高达805-840美元。然而,PS3的起售价仅为499美元,每卖出一台就意味着巨额亏损。

高昂的售价、复杂的架构、超高的功耗(运行游戏时功耗可达200W)以及开发难度,使得PS3在市场竞争中陷入被动。与此同时,微软在Xbox 360上采用了更简单、更接近PC架构的定制PowerPC三核处理器,并搭配ATI R500显卡,开发者更容易适配,许多跨平台游戏在Xbox 360上的表现甚至优于PS3。

本以为凭着Cell强大性能就能占领数字娱乐市场的索尼,被狠狠打了一耳光。

另谋出路

在游戏领域表现平庸的Cell,转战服务器领域,也没好到哪里去。

2006年,IBM宣布推出Cell Blade服务器,首款型号为BladeCenter QS20。随后,IBM于2007年8月推出了升级版BladeCenter QS21,并在2008年5月发布了采用新一代PowerXCell 8i处理器的BladeCenter QS22。

IBM在2010年就宣布停止对第二代Cell Blade提供支持,转而专注于其他高性能计算解决方案,甚至比失败的PS3还短命,不禁让人感慨。

不过,在科学计算领域,Cell却意外地找到了用武之地。

2008年,美国洛斯阿拉莫斯国家实验室基于Cell架构,搭建了一台名为Roadrunner的超级计算机。它采用了PowerXCell 8i——Cell BE的增强版,具备更强的双精度浮点运算能力,达到了102.4 GFLOPS,远超当时的传统CPU。Roadrunner最终成为全球首台性能突破1 PetaFLOPS(千万亿次浮点运算)的超级计算机。

2010年,美国空军研究实验室(The Air Force Research Laboratory,AFRL)组建了一套物美价廉的超算,其由1760台PS3、 168个独立图形处理单元及84个协调服务器组成,其代号为 “秃鹰群”(Condor Cluster),用于处理卫星图像、雷达以及研究AI,AFRL还向一些大学以及研究机构开放了秃鹰群的部分算力,据透露,这个超算总耗资约200万美元,运算性能为500TFlops,成本和耗电量均只有同等运算力常规超算的十分之一。

另外,索尼还在2007年宣布PS3正式加入Folding@home,这是一个研究蛋白质折叠,误折,聚合及由此引起的相关疾病的分布式计算工程,用户可以让自己的PS3在闲置时执行Folding@home分发的运算任务,截至2008年9月,参与的PS3游戏机提供了1.2PFlops的运算能力,占当时运算总数的近35%。

Cell虽然在游戏主机市场的表现未达预期,却在高性能计算领域留下了浓墨重彩的一笔,也算是种种挫折后为数不多的成功。

而随着技术的演进,Cell架构的短板也越来越明显。

首先,PPE的通用计算能力不及同时代的x86 CPU,而SPE虽然擅长并行计算,但编程难度过高,导致软件生态迟迟无法成熟。其次,随着GPU计算(如CUDA、OpenCL)的大幅崛起,GPGPU技术逐渐取代了Cell的市场地位。再加上索尼在PlayStation 4中放弃了Cell架构,转向了AMD的x86方案,Cell的时代也逐渐走向落幕。

2012年,IBM宣布不再更新Cell架构,宣告这一曾被寄予厚望的芯片正式走入历史。

而在今年3月,由于产品早已停止维护,加之没有足够的用户,Linux 6.15内核也将删除对 IBM Cell Blade服务器的支持,正式宣告了Cell这一架构的死刑。

虽然Cell处理器最终未能成为市场的主流,但它的创新理念却影响深远。其SPE架构的并行计算思路,为后来的GPU计算模式提供了灵感。英伟达的CUDA核心、异构计算的发展路径,多少都有Cell的影子。

时至今日,PS3仍然在一些科学计算项目中发挥着余热,而Cell的故事,仍然是计算架构史上最具传奇色彩的篇章之一。

半导体精品公众号推荐

专注半导体领域更多原创内容

关注全球半导体产业动向与趋势

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第4082期内容,欢迎关注。


『半导体第一垂直媒体』

实时 专业 原创 深度

公众号ID:icbank

喜欢我们的内容就点“在看”分享给小伙伴哦

微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-