通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  新兵

注册:2011-7-20
跳转到指定楼层
1#
发表于 2023-6-9 09:26:42 |只看该作者 |倒序浏览
TrendForce:预估2023年全球AI服务器出货量年增38.4%    AI芯片将增长46%

TrendForce集邦咨询发布报告称AI服务器及AI芯片需求同步看涨,预估2023年AI服务器(包含搭载GPU、
  
FPGA、ASIC等)出货量近120万台,同比增长38.4%,占整体服务器出货量近9%,至2026年将占15%。2022~2026
  
年AI服务器出货量年复合增长率同步上调至22%,AI芯片2023年出货量将增长46%。

TrendForce表示,NVIDIA  GPU为 AI服务器市场搭载主流,市占率约  60~70%,其次为云端业者自主研发的
  
ASIC芯片,市占率逾  20%。NVIDIA市占率高的主要原因有三,其一,目前不论美系或中系云端服务从业者,除
  
了采购原有的NVIDIA的A100与A800外,下半年需求还将陆续导入H100与H800。

其二,高端GPUA100及H100的高获利模式也是关键,由于NVIDIA旗下产品在AI服务器市场已拥有主导权
  
的优势,据TrendForce研究,H100本身的价差也依据买方采购规模,会产生近5000美元的差异。
  
其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、
  
智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配  4~8张  GPU的云端  AI服务器,以及每台搭载   2~4
  
张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。
  
此外,从高端GPU搭载的高带宽内存(HBM)来看,NVIDIA高端GPUH100、A100主采HBM2e、HBM3。以今年
  
H100 GPU来说,搭载  HBM3技术规格,其中传输速度也较  HBM2e快,可提升整体  AI服务器系统运算效能。随着
  
高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce2023
  
年HBM需求量将年增58%,2024年有望再成长约30%。


举报本楼

您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-4-30 22:32 , Processed in 0.109565 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部