通信人家园
标题: 谷歌TPU供应链深度调研纪要 [查看完整版帖子] [打印本页]
时间: 2026-2-13 09:08
作者: 无聊小北
标题: 谷歌TPU供应链深度调研纪要
梦想的第四维
一、背景与核心观点
聚焦谷歌TPU(张量处理单元)的崛起及其供应链影响,核心结论为2026-2027年TPU与GPU形成双赢格局,TPU从低基数实现更快增长。
核心定位:TPU是谷歌定制化AI加速器(ASIC),专为大规模神经网络计算设计,目前已成为谷歌内部AI训练/推理的主力(Gemini3模型完全基于TPU训练),并逐步开放外部客户,有望维持全球最大云ASIC地位。
二、TPU vs 英伟达GPU:核心竞争优势对比
TPU凭借“定制化适配AI场景”,在关键维度形成差异化优势,具体对比如下:
对比维度 |
谷歌TPU(以Ironwood为例)
|
英伟达GPU(以Blackwell为例)
|
关键结论
|
设计初衷
|
专为神经网络计算优化(ASIC)
|
通用高性能计算(HPC),兼顾AI场景(GPU)
|
TPU在AI场景效率更优
|
每瓦性能(FP8)
|
5.42TFLOPs/0.85kW
|
3.57TFLOPs/1.4kW
|
TPU每瓦性能领先52%
|
每美元推理成本
|
约0.03-0.04美元/token
|
约0.07-0.08美元/token
|
TPU推理成本低50%以上
|
算力利用率
|
预调度架构,利用率更高
|
动态调度,灵活性强但利用率略低
|
TPU适合大规模稳定workload
|
软件生态
|
OpenXLA开源栈,兼容PyTorch/JAX
|
CUDA生态成熟,工具链丰富
|
TPU生态门槛降低,加速渗透
|
典型场景
|
大规模AI训练、长周期推理
|
灵活适配多类AI任务、快速迭代场景
|
两者形成互补,而非完全替代
|
三、谷歌TPU发展历程与技术迭代
时间 |
版本
|
核心突破
|
应用场景
|
2015
|
TPUv1
|
首款专为TensorFlow设计,聚焦推理
|
谷歌翻译、搜索autocomplete
|
2018
|
TPUv2
|
引入256芯片互连Pod技术,支持训练
|
大规模AI模型训练
|
2020
|
TPUv3
|
液冷设计,优化硬件/互连/网络
|
更高算力密度的训练任务
|
2022
|
TPUv4
|
新增OCS光开关+3DTorus拓扑
|
超大规模集群(如9216芯片集群)
|
2023-2025
|
TPUv7(Ironwood)
|
性能对标Blackwell,开放外部客户
|
Anthropic、Meta等外部客户采用
|
2026E(H2)
|
TPUv8AX/v8X
|
博通(v8AX,性能导向)、联发科(v8X,效率导向)双版本
|
训练+推理全覆盖
|
2027-2028E
|
TPUv9AX/v9X
|
采用TSMCN2制程,新增EMIB封装
|
进一步提升性能与效率
|
四、供应链格局重构:从“独家”到“双轨制”
核心变化:引入联发科,打破博通垄断
历史格局:2015-2025年,博通为谷歌TPU独家设计服务合作伙伴,占据100%份额。
新格局:2026年起推进“博通+联发科双轨制”,2028年延续至v9系列,具体份额预测:
年份 |
博通份额
|
联发科份额
|
核心产品
|
2026E
|
92%
|
8%
|
博通v8AX、联发科v8X
|
2027E
|
72%
|
28%
|
博通v8AX/v9AX、联发科v8X/v9X
|
谷歌引入联发科的三大原因
成本优势:联发科v8X的ASIC服务费用perdie仅1680美元,较博通v8AX的3850美元低56%(博通毛利率55%,联发科42%)。
供应链安全:TSMCN3/N2产能紧张,联发科作为TSMC前10大客户,可优先获取先进制程产能(或早于博通获得N2制程)。
自主可控:谷歌将前端设计(RTL、架构)内部化,减少对单一供应商的IP依赖,保护核心技术。
五、市场需求与出货量预测
需求驱动因素
内部需求:谷歌所有核心AI任务(训练+推理)均依赖TPU,Gemini系列模型迭代持续拉动产能。
外部需求:Anthropic计划采购100万units TPU,Meta、亚马逊等企业客户加速采用;谷歌云通过Gemini API拓展企业市场,推动TPU渗透率提升。
出货量与销售额预测
指标 |
2026E
|
2027E
|
2028E
|
TPU总出货量(万units)
|
400
|
720
|
630
|
联发科TPU销售额(亿美元)
|
12
|
80
|
134
|
博通TPU销售额(亿美元)
|
411
|
625
|
689
|
TPU占全球云ASIC市场份额
|
超70%
|
超75%
|
超80%
|
六、核心受益厂商(按供应链环节划分)
供应链环节 |
核心企业
|
受益逻辑
|
关键数据/份额
|
先进代工+CoWoS
|
台积电(TSMC)
|
独家N3/N2制程代工,CoWoS封装主力
|
每1GWTPU服务器贡献19亿美元收入(高于GPU的11亿美元)
|
封装外包
|
ASE
|
TSMC基板外包+全流程CoWoS服务
|
占TPU封装份额超60%
|
后端测试
|
KYEC
|
TPU独家最终测试供应商
|
2025年TPU业务占KYEC销售额2%,2027年预计提升至8%
|
设计服务
|
联发科
|
v8X/v9X核心供应商,份额持续提升
|
2027年TPU业务贡献66%EPS增长
|
设计服务
|
博通
|
v8AX/v9AX性能版供应商
|
2026年仍占92%份额,毛利率55%
|
HBM
|
SK海力士
|
TPUv8/v9首选HBM供应商
|
谷歌HBM需求占全球16%(2026E)、17%(2027E)
|
服务器ODM
|
Celestica
|
TPU服务器联合开发主力
|
2026年企业业务(含TPU)预计增长105%
|
基板/PCB
|
欣兴、Ibiden
|
TPU基板核心供应商
|
v8系列基板层数20-24L,v9升级至44L+
|
散热/电源
|
Jentech、AVC、台达
|
Stiffener(Jentech)、冷板(AVC)、电源(台达)
|
台达为TPU机架独家电源供应商
|
七、风险提示
技术合作风险
联发科v8X项目曾出现延期,若存在性能短板需重新设计,将推迟量产节奏,但谷歌降低博通依赖的决心明确,长期合作不受影响。
博通商业模式变化
博通可能转向IP授权模式(如SerDes IP),若谷歌采用“博通IP+联发科后端”模式,将压缩联发科价值空间。
产能风险
TSMCN3/N2及CoWoS产能紧张,可能限制TPU出货增长速度。
市场竞争风险
英伟达GPU生态持续强化,可能延缓TPU外部客户渗透节奏。
八、关键问答
问:谷歌TPU相比英伟达GPU的核心竞争优势是什么?为何能在云AI场景快速渗透?
答:TPU的核心竞争优势集中在AI场景定制化效率:①每瓦性能领先52%(FP8下Ironwood5.42TFLOPs/0.85kWvsGB3003.57TFLOPs/1.4kW),适配数据中心电力约束;②每美元推理成本低50%以上,适合大规模推理场景;③预调度架构减少runtime损耗,算力利用率更高。快速渗透的关键原因:一是谷歌内部100%采用(Gemini系列模型训练),形成规模化基础;二是OpenXLA开源栈降低生态门槛,兼容PyTorch/JAX;三是谷歌云开放产能,支持初创企业与企业客户,填补英伟达GPU供应紧张的缺口;四是外部客户(如Anthropic)采用JAX框架,与TPU适配性更强。
问:谷歌TPU供应链从“博通独家”转向“双轨制”的核心逻辑是什么?联发科的竞争优势在哪里?
答:核心逻辑是成本优化+供应链安全+自主可控:①成本上,联发科服务费用较博通低56%,适配TPU推理场景的效率需求;②供应链上,联发科作为TSMC前10大客户,可优先获取N3/N2先进制程产能,缓解TSMC产能紧张压力;③自主可控上,谷歌将前端设计内部化,减少对博通的IP依赖。联发科的竞争优势:一是与TSMC的深度合作(高管渊源+长期订单),可提前获取新制程;二是SerDes IP持续迭代(224G已落地,336/448G研发中),满足TPU高速互连需求;三是商业模式灵活,支持后端物理布局+SerDes IP合作,不触及谷歌核心架构设计;四是性价比优势显著,适配谷歌推理场景的大规模放量需求。
问:谷歌TPU的市场前景如何?哪些环节的企业将成为最大受益方?
答:市场前景广阔,2026-2028年出货量预计达400万/720万/630万units,长期维持全球最大云ASIC地位,2027年占全球云ASIC市场份额超75%。核心受益环节及企业:①代工+CoWoS:台积电,独家先进制程代工,每1GWTPU服务器贡献19亿美元收入,显著高于GPU;②设计服务:联发科,2027年TPU份额提升至28%,贡献66%EPS增长;③封装:ASE,承接TSMC基板外包与CoWoS服务,占封装份额超60%;④测试:KYEC,独家最终测试供应商,业务占比持续提升;⑤HBM:SK海力士,谷歌HBM首选供应商,受益于TPUHBM容量升级(v9AX采用768GBHBM4E);⑥服务器ODM:Celestica,TPU服务器联合开发主力,2026年相关业务增长105%。
时间: 2026-2-13 10:05
作者: lmla2070
感谢分享
时间: 2026-2-13 13:08
作者: 快乐的小2b
TPU和GPU各有优势,但TPU在AI场景下的能效比确实更突出,适合大规模稳定负载。
| 通信人家园 (https://www.txrjy.com/) |
Powered by C114 |