2023年人工智能芯片展望
姊妹研究公司Omdia的数据中心IT首席分析师Manoj Sukumaran表示,随着人工智能在各类企业、最终用户、云服务提供商甚至电信服务提供商中的部署激增,对专业人工智能处理器的需求将在2023年继续飙升。
“人工智能芯片市场预计将继续保持过去几年的增长势头,”他说。“其中一些深度学习模型的规模超过了数万亿个参数,需要强大的计算能力来训练和部署这些模型。”
例如,Meta预计其深度学习推荐模型(DLRMs)在不久的将来将增长到超过10万亿个参数,这需要zettaflop of compute来训练,数据中心IT的首席分析师Sukumaran说。
以下是苏卡曼对2023年AI芯片市场的预期:
2023年出货的大约200万台服务器将至少有一个协处理器来加速一些计算工作负载,与2022年相比增长了53%。其中很大一部分将是GPU、TPU和专门的人工智能加速器。
英伟达的H100“漏斗”张量核心GPU将于2023年商用。英特尔首款数据中心GPU,代号为韦基奥桥,预计也将在2023年上半年推出,而特斯拉的DOJO超级计算机及其定制的硅Dojo D1预计将在2023年底推出。
人工智能芯片市场面临整合。在过去的几年里,硅创业公司蓬勃发展,以迎合人工智能处理器市场,但2023年对其中一些公司来说将是艰难的一年,因为风险投资资金枯竭,大多数公司还没有主要的收入来源。
Omdia的云和数据中心研究业务负责人弗拉基米尔·加拉波夫(Vladimir Galabov)表示,随着这些初创公司在2023年努力维持自身,它们可能会因此成为收购目标。
整合以前发生在市场上,当时英特尔取得他说,人工智能芯片制造商Habana Labs在2019年的价格约为20亿美元,深度学习初创公司Nervana Systems在2016年的价格约为4亿美元。
“不仅仅是芯片,利用芯片功能的强大软件堆栈也是这个市场中公司的独特之处。苏卡曼说:“这正是许多初创公司正在努力解决的问题。“如果你看看市场上的领导者英伟达,它最大的优势是软件。即使是他们最大的竞争对手英特尔和AMD也没有强大的软件体系。”
苏卡曼说,话虽如此,利基市场还是会有赢家的。创业公司,比如脑波和桑巴诺瓦系统公司他说,微软已经找到了一个利基市场,并在人工智能市场上做了很好的定位。
Galabov说,2023年,数据中心运营商将越来越多地将特定的人工智能处理器与特定的工作负载需求相匹配,以最大限度地提高性能。
例如,在最近的AWS re:Invent大会上,亚马逊网络服务公司表示,它选择了英特尔的Habana芯片用于视觉上的机器学习模型,因为它提供了更好的性能,但AWS将使用自己的Tranium芯片用于语言,因为它自己的芯片设计更好,他说。
加拉波夫说,在更广的范围内,摩尔定律仍然有效。
摩尔定律表明,集成电路中的晶体管数量每两年翻一番,这意味着今天集成电路上需要大约1000亿个晶体管。
2022年,苹果推出了由1140亿个晶体管组成的M1超。他说,AMD的第四代Epyc“Genoa”芯片拥有900亿个晶体管,而英特尔即将推出的Ponte Vecchio芯片拥有超过1000亿个晶体管。
“这三种产品让我们遵循摩尔定律,”加拉波夫说。
加拉波夫补充说,摩尔定律可能会延续到2024年。
“如果我们今天设法建造一个具有1000亿个晶体管的处理器,摩尔定律将表明,在2024年,我们必须达到2000亿个晶体管。目前,我认为我们很可能会接近成功。但到了2026年,我们可能会很难跟上摩尔定律,”他说。