在公布强劲的 2026 年第一季度财报后,AMD 首席执行官苏姿丰在财报电话会上谈到,随着 Agentic AI(代理式人工智能)时代的到来,数据中心中 CPU 的使用量正被推向前所未有的高度。 她表示,在这一新趋势下,单个计算节点中 CPU 与 GPU 的数量正在从过去的一对多,逐步逼近一比一,未来甚至可能出现 CPU 数量多于 GPU 的情况。

苏姿丰在回答分析师提问时指出,传统 AI 训练与推理集群通常采用“一颗 CPU 搭配四到八颗 GPU”的配置,CPU 更多扮演“宿主”角色,负责调度并发起 GPU 计算任务。 而在 Agentic AI 模式下,大量具备自治能力的智能体需要依托主机 CPU 持续进行状态更新、任务编排和协同,这正在根本性地改变算力节点的形态。
根据苏姿丰的说法,随着智能体数量的快速增加,CPU 与 GPU 的比例正向 1:1 靠拢。 她甚至提出,如果未来集群中运行“数量极其庞大”的智能体,则完全可以想象单节点里 CPU 数量多于 GPU 的配置。 这意味着,过去几年由 GPU 主导的加速计算扩张浪潮,正被一股由“智能体工作负载”驱动的 CPU 需求浪潮所叠加。
所谓 Agentic AI,本质是在大语言模型(LLM)之上运行多个自治“智能体”,由其自动完成复杂任务流程。 例如,在软件开发场景中,智能体可以自行审阅代码、实施修改、等待编译完成,并在发现新 Bug 时继续修复,全流程几乎无需人工干预。 然而,为了协调、调度和编排这些并行运行的智能体任务,系统必须依赖 CPU 提供持续的控制与管理能力。
在这类工作负载下,CPU 不再只是“启动 GPU 训练或推理”的配角,而是成为驱动整个 Agentic AI 系统运转的核心枢纽。 当越来越多任务被拆分并委派给智能体时,即便当前仍处于 GPU 加速计算快速扩张的时代,CPU 利用率依然被推高到极高水平。 报道援引 AMD 的表态称,公司目前几乎“将所有能提供的 CPU 都卖给了 AI 实验室和超大规模云服务商”,以满足这波由智能体任务带来的新增需求。
这也意味着,在未来 AI 基础设施的设计中,CPU 与 GPU 的关系可能会从“主从”走向更为对等甚至 CPU 更加密集的形态。 对芯片供应商而言,Agentic AI 不仅继续拉动 GPU 需求,也有望在服务器 CPU 市场打开新一轮增长空间。