Google第八代TPU首度拆分“训练”与“推理”双芯

站长云网 2026-04-23 网易科技 站长云网

4月23日消息,美国时间周三,Google正式宣布其第八代张量处理单元(TPU)迎来重大战略调整:首次将AI模型的“训练”与“推理”任务剥离,交由两款相互独立的专有芯片处理。这两款新一代处理器预计于今年晚些时候推向市场。

此举标志着Google在AI硬件领域对英伟达发起的新一轮竞争。

“为什么要走向算力专属化?”Google高级副总裁兼AI与基础设施首席技术官阿明·瓦达特(AminVahdat)在一篇官方博文中表示,“随着AI智能体的兴起,我们认定针对训练和推理需求分别提供专门优化的芯片,将使整个技术生态受益。”

当前,AI推理速度正成为大厂博弈的核心战场。今年3月,英伟达大力宣传了即将推出的一款新芯片,该芯片能够让模型快速响应用户提问,而这主要归功于英伟达在斥资200亿美元收购芯片初创公司Groq的交易中所获得的技术。在此背景下,尽管Google仍是英伟达的主要客户,但其正通过向云服务企业提供TPU,构建替代性的算力方案。

事实上,科技巨头亲自下场造芯、谋求算力自主已成行业共识。通过底层架构的深度定制,企业能够最大化特定应用场景的运行效率。从苹果多年来在iPhone中集成的神经网络引擎(Neural Engine),到微软今年1月迭代的第二代AI芯片,再到Meta近期被曝出正与博通(Broadcom)联手研发多款AI处理器,无一不印证了这一趋势。

在这场“造芯运动”中,Google堪称先驱。该公司于2015年开始部署自研AI处理器,并自2018年起通过云平台向外部客户提供算力服务。作为对比,亚马逊AWS于2018年和2020年分别推出了专用于推理的Inferentia芯片与专用于训练的Trainium处理器。

投资银行D.A. Davidson分析师在去年9月的一份报告中预估,GoogleTPU业务与DeepMindAI部门的合并估值约为9000亿美元。

目前,英伟达在AI算力市场仍占据绝对主导权。Google在此次发布中未直接对标英伟达的同类产品,但披露了自身的性能迭代数据:在同等成本下,新款训练芯片的性能是去年11月发布的第七代TPU(代号Ironwood)的2.8倍,新款推理芯片的性能则提升了80%。

值得注意的是,在技术路线上,业界正不约而同地押注静态随机存取存储器(SRAM)。无论是英伟达即将推出的Groq 3 LPU,还是本月刚提交IPO申请的AI芯片独角兽Cerebras,均重度依赖该技术。Google此次推出的新款推理芯片TPU 8i也紧跟这一趋势,其单颗芯片的SRAM容量高达384MB,是上一代Ironwood的三倍之多。

Alphabet首席执行官桑达尔·皮查伊(Sundar Pichai)在博文中指出,新架构的设计目标在于“提供庞大的吞吐量(Throughput)与低延迟(Latency),从而以极高的成本效益支持数百万个AI智能体并发运行”。

终端应用方面,Google披露其AI芯片的商业化落地正在扩大。其中,做市商城堡证券(Citadel Securities)已基于TPU开发量化研究软件;美国能源部下属的17个国家实验室正全面部署基于该芯片的“AI协同科学家”(Co-scientist)系统。此外,AI初创公司Anthropic已承诺调用规模达数吉瓦(Gigawatts)的Google TPU算力资源。

责任编辑:站长云网