“产业应用会驱动底层技术的创新,在大模型出现之前,AI的发展本身就推动了很多底层技术,比如HBM高带宽的存储技术,算力从传统计算到AI计算产生。大模型相比于之前的AI计算,它对算力、存储、带宽的需求又往上提升了比较大的台阶。我们认为它会催生更多的底层技术的创新,包括硬件、软件等。”7月6日,曦智科技创始人兼CEO沈亦晨在2023世界人工智能大会芯片主题论坛发言称。
ChatGPT催化下,芯片领域迎来下行周期中少有的细分利好市况,带动高算力芯片需求显著增长。随着ChatGPT引领的AI大模型热潮兴起,以GPU厂商英伟达为代表的芯片公司成为最大的受益者,计算资源近期被热抢。
但这一市场现状并不为所有人满意,AI算力“僧多粥少”,价格昂贵且面临技术瓶颈和地缘政治风险,产业上下游需积极寻找解决方案,但这一进度并不令人满意。沈亦晨认为,从当前市场形势来看,一方面英伟达独自推进解决AI计算的存储、带宽、计算解决方案,在整体效果上远超市场其他玩家。另一方面,在非英伟达生态中,存储、带宽、计算作为IT基础设施的三大问题,通常由不同厂商各自解决,难以形成合力。
(资料图)
“如何让多个不同厂商,不同技术能够共享一个语言,共同遵循一个通讯协议,这样才能够更好地把总体算力解放出来。”沈亦晨称。
软件端,英伟达地技术能力依然一骑绝尘。目前,在GPU领域,英伟达占据主导地位。英伟达在GPU领域的垄断地位主要通过CUDA平台上的软件生态实现。国内GPU/GPGPU创业公司的产品大多兼容CUDA,以确保用惯了英伟达产品的客户在迁移时没有障碍。中国GPU初创公司沐曦联合创始人兼CTO兼首席软件架构师杨建表示,由于英伟达在软件端几乎没有对手,推动应用生态迁移将是一个循序渐进的过程,沐曦将会从小的市场尝试切入。
沐曦作为GPU企业,深感行业在大模型火热下的瓶颈。杨建称,大模型对计算精度要求极高,学术界对如何用低精度实现令人满意的推理仍有难度,“精度降低之后,成本自然就降低了,这个问题在学术界现在也没有给出一个很好的答案。”
此外,行业普遍关注到HBM(高带宽内存芯片)供应对GPU出货的限制。杨建称,目前所有大模型推理用的GPU芯片都需要HBM,“HBM很贵,差不多1GB要20美元,卖到最终用户差不多1GB要60美元,能不能把HBM成本给下降?其实是更大的挑战。”他设想,全球应出现第三家HBM供应商,打破现有仅有两家公司提供HBM芯片的格局。
GPU短缺情况下,针对大模型需求,产业上下游尝试多种新型技术方向。曦智科技从事硅光芯片开发,后者被认为是AI计算的一大潜在技术方向。光子作为电中性粒子,相互之间可交叉行进而不会相互作用,因此可在光纤中处理同步数据信号,且不产生热量,最终硅光芯片在处理数据时可减少耗电。沈亦晨认为,光电混合技术将是催生下一代大模型发展的底层技术之一,因为它能够提供更高的带宽,更低的功耗,让更多的计算节点更有效的联合起来,去完成更大规模的计算。
然而,该技术亦有自身难点。杨建即提及,将硅芯片的电子和光子整合为硅光芯片的过程中,如何实现不同芯片架构的异构封装,将是一大挑战,“光对于温度要求是很严苛的,但是硅不严苛(105或108摄氏度),但是光需要工作在50摄氏度左右。”
“过去绝大部分应用创新都来自于软件,现在越来越多的看到软件跟硬件结合的创新,不管AIOT还是车网融合,硬件跟软件会深度耦合。”奇异摩尔产品及解决方案副总裁祝俊东称,硬件无论是开发成本和开发周期都远远的跟不上应用跟软件的发展。过去大家以功能来定义硬件,后来以算法或者需求来定义。
奇异摩尔从事Chiplet通用产品解决方案,随着硬件变得越来越复杂,进一步推动架构和制程创新已经很不容易。而Chiplet能够通过硬件的组合来降低硬件创新门槛。能够更好的实现软硬件相互之间的协同。
与CPU(中央处理器)一样,由于对算力要求较高,GPU也需要使用最先进的工艺,处于风口当中的Chiplet技术,也是被不少业内人士视为摩尔定律放缓之后、中国半导体企业弯道超车的机会。
Chiplet即“小芯片”或“芯粒”,是芯片制造领域近年备受热议的技术路线,通过把不同芯片的能力模块化,利用新的设计、互联、封装等技术,在一个封装的产品中使用来自不同技术、不同制程甚至不同工厂的芯片。
然而,Chiplet是系统工程,涉及到芯片设计、晶圆制造、封装、测试等多个环节。具体到封测上,郑力认为,整体来看,与全球领先厂商相较,大陆企业在先进封装领域差距较小,但在先进的晶圆级封装,全球范围内仍由台积电、三星和英特尔主导,这和半导体工业的整体水平有关。
标签: