其二,高端GPUA100及H100的高获利模式也是关键,由于NVIDIA旗下产品在AI服务器市场已拥有主导权
  的优势,据TrendForce研究,H100本身的价差也依据买方采购规模,会产生近5000美元的差异。
  其三,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、
  智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配  4~8张  GPU的云端  AI服务器,以及每台搭载   2~4
  张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。
  此外,从高端GPU搭载的高带宽内存(HBM)来看,NVIDIA高端GPUH100、A100主采HBM2e、HBM3。以今年
  H100 GPU来说,搭载  HBM3技术规格,其中传输速度也较  HBM2e快,可提升整体  AI服务器系统运算效能。随着
  高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,TrendForce2023
  年HBM需求量将年增58%,2024年有望再成长约30%。