通信人家园
标题: 对阵英伟达?高通连出两款AI芯片 [查看完整版帖子] [打印本页]
时间: 2025-10-28 08:57
作者: PH值
标题: 对阵英伟达?高通连出两款AI芯片
芯东西(公众号:aichip001)
作者 | ZeR0
编辑 | 漠影
芯东西10月28日报道,昨夜,高通发布面向数据中心的下一代AI推理优化解决方案,包括基于云端AI芯片Qualcomm AI200和AI250的加速卡及机架。
两款芯片均采用高通Hexagon NPU,预计将分别于2026年和2027年实现商用。
高通称,凭借该公司在NPU技术方面的优势,这些解决方案可提供机架级性能和出色的内存容量,以高性价比实现快速的生成式AI推理,有助于实现可扩展、高效且灵活的生成式AI。
沙特支持的AI创企Humain将从2026年开始部署200兆瓦的高通新型AI机架。
受此消息影响,高通股价飙升11%。
Qualcomm AI200推出一款专用机架级AI推理解决方案,旨在为大语言模型和多模态模型(LLM、LMM)推理及其他AI工作负载提供更高的内存容量、更低的总拥有成本(TCO)和优化的性能,支持每卡768GB LPDDR。
Qualcomm AI250解决方案将首次采用基于近存计算的创新内存架构,通过提供超过10倍的有效内存带宽和更低的功耗,不仅支持分解式AI推理,还能高效利用硬件资源,同时满足客户对性能和成本的要求。
两种机架解决方案均采用直接液冷以提高热效率,采用PCIe进行纵向扩展,采用以太网进行横向扩展,采用机密计算以确保安全的AI工作负载,机架级功耗为160kW。
这些解决方案都具有丰富的软件栈和与AI框架的无缝兼容性,使企业和开发人员能够跨数据中心部署安全、可扩展的生成式AI。
其AI软件栈端到端覆盖从应用层到系统软件层,并针对AI推理进行了优化。开发者可通过高通的Efficient Transformers Library和高通AI推理套件,获得无缝模型导入和Hugging Face模型的一键部署。
高通高级副总裁兼技术规划、边缘解决方案和数据中心总经理Durga Malladi称,凭借Qualcomm AI200和AI250,高通正在重新定义机架级AI推理的可能性。
Malladi还透露,高通将单独出售其AI芯片和其他部件,尤其是针对那些喜欢自行设计机架的超大规模数据中心客户。其他AI芯片公司也可能成为高通部分数据中心部件(如CPU)的客户。
高通数据中心路线图每年更新一次,聚焦实现业界领先的AI推理性能、能效和业界领先的TCO。
近年来,高通努力摆脱对智能手机市场的依赖,将业务拓展至PC和汽车市场,如今又向广阔的数据中心市场发起进攻。
附件: 641 (2025-10-28 08:57, 286.42 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NzA1OTc1fDM5NjYwYzExfDE3NjE2NzQ3OTd8MHww
附件: 641 (2025-10-28 08:57, 172.19 KB) / 下载次数 0
https://www.txrjy.com/forum.php?mod=attachment&aid=NzA1OTc2fDUwNTU1NDM5fDE3NjE2NzQ3OTd8MHww
时间: 2025-10-28 10:17
作者: coffee198375
标题: 高通推出两款AI芯片欲挑战英伟达
10月27日消息,高通正式宣布进军数据中心AI芯片市场,推出两款全新AI加速器——AI200与AI250,以及配套的机架级服务器系统。这一战略转向标志着高通从移动设备芯片制造商转向AI基础设施供应商,直接挑战当前由英伟达与AMD主导的高性能计算市场。
受此消息推动,高通美股周一一度大涨逾20%,最高创下205.55美元的52周新高,随后股价回落。截至美股周一收盘,高通股价报187.68美元/股,收涨11.09%,公司市值约2025亿美元。
据了解,这两款新品主要面向AI推理(Inference)环节,而非模型训练。
高通表示,AI200将于2026年上市,AI250预计2027年推出,后续还将于2028年推出第三代产品,形成每年一代的更新节奏。
高通表示,这些芯片基于其核心技术Hexagon神经处理单元(NPU),从智能手机和PC芯片的NPU架构“放大”至数据中心级别,充分利用高通在移动AI和低功耗计算方面的优势。
AI新品亮点:低功耗、高性价比与模块化部署
根据高通介绍,AI200与AI250支持机架级液冷集成,最多可将72枚芯片协同组成一台“超级计算机”,满足大型AI实验室运行模型的需求。整机功耗约160千瓦,与英伟达的部分GPU服务器相当,但高通声称整体拥有成本(TCO)更低。
其中,AI200芯片是一款专为AI推理而设计的机架级解决方案,重点优化大语言模型(LLM)和多模态模型(LMM)等AI任务的运行效率。单卡可配备768GB LPDDR内存,在保持较低成本的同时提升内存容量,为大规模推理任务提供灵活的扩展空间。
AI250在此基础上引入了近存储计算(Near-memory Computing)架构,在内存带宽和能效方面实现代际跃升。该方案的有效内存带宽提升超过10倍,功耗显著降低,从而提高AI推理过程的硬件利用率,满足客户对性能与成本平衡的要求。
AI200与AI250均搭载高通为数据中心定制的AI软件堆栈,覆盖从应用层到系统软件层的完整链路,专为AI推理任务优化。该堆栈兼容主流的机器学习框架、推理引擎与生成式AI框架,并支持针对LLM与LMM的分布式推理(Disaggregated Serving)等优化技术。
高通同时强调其产品的灵活采购模式——客户可按需选择芯片、计算卡或整机系统。高通数据中心与边缘业务总经理杜尔加·马拉迪(Durga Malladi)指出:“客户既可全盘采用,也可混搭使用。甚至英伟达或AMD等竞争对手,也可能在系统中采购我们的CPU组件。”
马拉迪补充说,高通的目标是以低功耗和更优的成本效益帮助云计算企业应对数据中心建设中不断上升的能源与资本支出。麦肯锡数据显示,到2030年全球数据中心资本支出将超过6.7万亿美元,其中相当比例将流向AI芯片系统。
AI芯片市场目前仍由英伟达垄断,其GPU市占率超过90%,成为OpenAI、微软、谷歌等公司训练和运行大型模型的主要硬件平台。然而,随着AI计算成本飙升,业界正积极寻找替代方案。
本月初,OpenAI宣布将从AMD采购芯片,并考虑战略入股。与此同时,谷歌、亚马逊和微软均在自研AI加速器,以减少对英伟达的依赖。
高通此次入局被视为押注“AI推理市场”的关键一步。推理环节对功耗与成本更为敏感,这正是高通的技术优势所在。该公司在智能手机与笔电芯片中的NPU表现出色,如今希望将这一经验延伸至云端与大型数据中心。
高通此前曾尝试进军服务器芯片市场。2017年,高通与微软合作推出Centriq 2400平台,但因市场竞争与内部诉讼问题,项目最终搁浅。
随着AI需求爆发,高通欲借AI200与AI250重新启动数据中心战略,并已同沙特阿拉伯Humain公司签署部署协议,对方计划建设功率达200兆瓦的AI推理系统,成为高通首位大客户。
时间: 2025-10-28 10:17
作者: transmind
股价涨了11%说明市场看好,但AI芯片赛道现在太卷了,最终还得看客户买不买单。
时间: 2025-10-28 10:18
作者: coffee198375
人人都想挑战英伟达。。。。
时间: 2025-10-28 16:21
作者: 不吹不黑
杠上了吗?
| 通信人家园 (https://www.txrjy.com/) |
Powered by C114 |