TPU即为谷歌发明的AI处理器,主要支持张量计算;
DPU则是用于数据中心内部的加速计算;
NPU则是对应了上一轮AI热潮中的CNN神经卷积算法,后来被大量SoC芯片整合进边缘设备的处理芯片中。在SOC芯片领域,国内企业众多,此前提到的瑞芯微原本从事与AI视觉四小龙相似的视觉判断领域,明显领先于其他公司。
能够用于AI算力的芯片有CPU、GPU、FPGA、ASIC四种。CPU和GPU不再介绍,FPGA、ASIC两类均属于专门设计芯片。
FPGA,英文Field-Programmable-Gate-Array,翻译为现场可编程逻辑门阵列。结构上类似积木块搭建,零部件具有一定范围内的可替代性。
而ASIC属于一体化成型,ASIC相比FPGA连接口和连接线更少,电源散热分配更加合理,因此在能耗需求上更低。随着AI大模型从单项选择阶段转向逻辑推理完形填空阶段,以ASIC为代表的推理性质专用芯片可能将弥补以GPU为代表的通用芯片缺陷。
图11:谷歌自研动机
前文提到transform架构是谷歌2017年的论文提出,而谷歌一直致力于独立开发TPU专用深度学习芯片,在英伟达GPU一统天下前,性能也远超传统CPU芯片。
理论而言,ASIC芯片门槛相对较低,考虑到推理芯片需求已经在博通的财务报告中得到验证,相关美股科技公司大模型和业务流一旦固定,则订单合作将呈现天量。根据介绍,ASIC芯片的前序设计成本较高,但伴随着后续产品的量产,单位芯片成本因规模效应会出现显著降低。
若推理ASIC芯片转为现实,博通未来会成为端侧推理芯片市场的领军者,AI手机、AI电脑、AI家电、AI工控等产品都可能需要ASIC推理芯片。博通CEO在2024年Q3的业绩发布会上,预期ASIC市场2027年达到600-900亿美金,机构预计2025年将达到300亿美金体量。(博通AI业务2024三季度营收达37亿美元,增速150%)
图12:ASIC方面的优势
ASIC的研发周期较长,特定行业各不相同,根据ASIC领域的第二梯队竞争者迈威尔科技MARVELL透露:迈威尔2000年成立以来,25年间一共设计约2100款ASIC芯片,年均一年不到100个客户。理论上,博通公司占据以往60%的市场份额,后续将强者恒强。
ASIC芯片在部署上属于端侧部署,端侧需要高速交换机和高速通信芯片。博通公司的供货产业链上,美股稳定数据传输(PCIE-Retimer)领域中的龙头公司ALAB,网络交换机领域中的Arista,近期均有领涨。