调研主题:TPU 产能预期及供应商份额、谷歌 Capex 上调原因及内存池方案选择、OCS 出货量预期、CSP 1.6T 交换机应用时间
聚焦企业:谷歌 / Amkor / 日月光 / 英特尔 / Meta/AWS/OpenAI/Coherent/Lumentum/ 天弘 / 博通等
调研时间:2026 年 02 月 25 日
TPU 产能预期及供应商份额
谷歌 Capex 上调原因及内存池方案选择
OCS 出货量预期
CSP 1.6T 交换机应用时间
以下为专家观点,仅供参考,不构成任何投资建议。
2026 年和 2027 年 TPU 的生产目标和供应情况如何?
2026 年的 TPU 客户目标为 430 万颗。台积电预计可以保障 340 万颗的产能,谷歌正在推动 Amkor 作为第二供应商,在 2026 年下半年 9 月至 12 月期间,Amkor 旗下的 Spil 北美将提供 30-40 万颗的产能,尽管这一数字有些风险。总体来看,2026 年可以保障约 370 万颗 TPU,到 8 月底前台积电还会继续缓慢扩产,全年 430 万颗的保障情况估计有 90% 的可能性,但至少 400 万颗是没有问题的。对于 2027 年,预计需求量为 650 万颗,其中 550 万颗由台积电和日月光提供,其余 100 万颗由 Amkor 和 Intel 在北美地区供应。Intel 目前还没有进入试生产阶段,预计 2027 年会正式进入生产。
为什么谷歌 2026 年上调了 Capex?
主要是因为三星和海力士引发了内存条市场的挤兑现象。如果没有 HBM 出现的问题,就不会导致全球所有 CSP 提前锁定两年的产能。此外,由于谷歌已经将部分 2027 年的费用提前花掉,用于锁定 2026 年的订单,因此需要预支更多资金来确保未来两年的物料供应。
当前内存价格上涨对市场有什么影响?
内存价格大幅上涨,对市场产生了显著影响。例如,64GB 5600 内存条现在价格已达到 1,000-1,100 美元,而渠道商售价则高达 2000 美元。这意味着出厂价翻了三倍,而最终用户购买价格则增加了八倍。
谷歌在 Capex 中结构如何分配?其 1,800 亿预算中有哪些重点领域?
谷歌 2026 年 1,800 亿 Capex 预算中,大约 60%-65% 用于 TPU 相关,其余三分之一用于软件开发,前端应用等。2026 年 TPU V7 售价 9,000 美元、V8AX 售价 11,000 美元、V8X 售价 8,000 美元。
为什么微软和 Meta 没有明显上调 Capex,而 Google 和亚马逊却有所调整?
Meta 未明显上调 Capex 主要因为其自研芯片量较小,不需要大量采购配套物料。
谷歌为什么选择使用 DRAM 而不是 HBM?
目前 HBM 的价格和供应量受到人为控制,导致其成本较高。在这种情况下,Google 在过去半年内进行了调整,希望通过引入 DRAM 来替代 HBM。虽然现在 DRAM 的价格已经超过了 HBM,但 Google 认为未来可能会通过引入中国供应商来降低成本。中国本土厂家的进入将使得 DRAM 的价格大幅下降,从而改变市场格局。
目前 OCS 的市场预测情况如何?
2026 年预计生产 15,000 台由天弘代工的 MEMS,以及 3,000 台由 Coherent 原厂生产的 DLC 设备。这些设备主要是 300×300 端口规格,但也有部分 600×600 端口规格订单可能会给到 Lumentum。2027 年 OCS 需求预计将增加 1.5 倍。随着内存集群池的发展,2028 年的需求可能会在此基础上再翻一倍。此外,内存集群池中 OCS 的使用量也将显著增加,每个 TPU 至少需要一个物理端口对接某个存储板。
天弘是否有代工博通 CPO 交换机?
是的,公司确实有代工博通 CPO 交换机。
Meta 每年从博通购买多少以太网交换机?
公司占 Meta 每年采购的以太网交换机中 ODM 的 70%。此外,在 OEM 里面还有思科、Arista 等,估计那个市场应该还有十几万台,因此总共应该在三十几万台。
V8p 目前处于什么阶段?未来时间节点如何安排?
V8p 目前已经完成概念阶段,硬件规格等各方面已经确定。预计在 2026 年 3 月至 5 月进入制图阶段,随后在 6 月至 7 月进入工程验证测试 (EVT) 阶段。由于谷歌的 EVT 比较复杂,每个 EVT 可能会出不同配置的多块测试板,因此时间较长,可能需要 3 至 4 个月。2026 年第四季度可能进入设计验证测试 (DVT) 阶段,2027 年 3 月份将进入生产验证测试 (PVT) 阶段。PVT 一般持续三个月,如果计划在 2027 年 9 月 30 日发布产品,那么最后三个月用于准备物料。
谷歌这颗芯片在存储方面有哪些变化?
可能会有四个升级变化,其中内存集群池是最有可能实现的一项升级。这一概念落地后,HBM 的尺寸位置可以腾出空间放置新的芯片。在物理尺寸上,一块板子上放置 8 到 12 颗芯片是可行的,但 12 颗较为激进,更现实的是放置 8 颗。此外,由于密度增加,需要采用 switch tray,以满足端口需求。为了控制柜子的散热和功耗,还需使用 NPO。
内存集群池具体如何实现?对现有供应商有什么影响?
内存集群池将形成一个独立组,不仅限于一个机柜,可能是一群机柜,通过 OCS 进行连接,中间使用光子封装接口与主板连接。这种设计理念使得 DRAM 物料具有更强通用性和兼容性,有利于更多供应商参与。如果谷歌采用这种方案,将迫使三星和海力士等高价策略失效,中国供应商也将获得更多市场份额。
CXL 方案是否需要交换设备支持?
如果使用 CXL 方案,需要搭配光通信手段,但不需要交换机。OCS 并非传统意义上的交换机,而是一种传输设备,通过端口映射实现动态扩容,提高系统灵活性。因此,为了实现 CXL 方案中的池化概念,需要结合光通信手段,并配合 OCS 来达到接近主板直连效果,尽管仍存在约 2% 的性能差距。
使用 CXL 对 CPU 需求会有什么影响?
需要增加额外的 CPU。估计在每个内存主板上,甚至在一个柜子里,会有专门的 CPU 集群来管理这些物理柜子的所有内存条。例如,阿里发布的柜子中 ASIC 和 CPU 分别管理各自任务,通过集群方式管理物理柜子的所有内存条。如果使用 TPU 自带的远端第一颗 CPU,在物理联动上可能需要跨三个板,这样效率可能会受到影响。此外,本身轻量级的 CPU 主要负责板间通信和信令管理,因此整个集群效能可能达不到预期。因此,在内存动态池中组建一个本地管理它和 TPU 之间信令通信的 CPU 集群是可行方案。
板子和 CPU 的比例会是多少?
猜测是一块板子至少两颗 CPU,但如果谷歌采用 tray 集群等方式,那就不好说了。比如,一个物理板可能包含 32 块计算板,其中 8 块是 CPU 板,24 块是内存板。这 8 块 CPU 板中,每个板放置 10 颗或 8 颗 CPU,并通过 AOC 连接形成集群。谷歌没有明确说明,但估计二颗 CPU 的可能性很大。需要注意的是,现在在概念设计阶段,所有信息都不知道。
目前市场上的交换机进展如何?
AWS 将在 2026 年 6 月上 1.6T 交换机,这是 CSP 客户中最早的一家,因为其定制化程度最小。随后是 Meta,将晚半个月到一个月推出,而谷歌计划在 2026 年 8 月推出 1.6T 交换机,这与其 V8AX 上市时间相匹配。目前 V7 和 V8X 柜子仍为 800 级别,仅 V8AX 柜子为 1.6T。谷歌 1.6T 交换机将用于普通以太网交换,而非 OCS。
OpenAI 进展如何?
OpenAI 项目预计将在 2026 年 11 月完成,因为 AI 服务器解决方案已经按计划进行,但 1.6T 交换机 switch tray 集群部分由于设计变更推迟了两个月到 11 月份。该系统包括 24 台博通设备组成的一套系统,每套系统包含三个柜子 (两个计算柜和一个交换柜),使用思科 Nexus ASIC 作为加速器芯片。
谷歌 V8p 不用 HBM 的概率有多少?如果不采用,其替代方案是什么?
V8p 不用 HBM 的概率约为 80%。如果 HBM 供应充足,他们可能会将 HBM 做成外部池进行动态扩展。然而,由于 HBM 成本较高,他们考虑用 DRAM 替代,将 DRAM 做成独立池拉出,从而提高性价比并扩大性能上限。例如,同样投资价的情况下,用 DRAM 替代方案可以使每个 TPU 增加 192-256G 的内存空间。因此,该方案对谷歌具有吸引力,也有望被其他公司采纳。
温馨提示:内容源于第三方以及公开平台,仅供用户参考,恕本平台对内容合法性、真实性、准确性不承担责任。如有异议/反馈可与平台客服联系处理(微信:_LYSD_)。