通信人家园

标题: 重大突破,北京大学新型“数学芯片”,实现千倍算力飞跃  [查看完整版帖子] [打印本页]

时间:  2025-10-16 20:49
作者: hwwdx     标题: 重大突破,北京大学新型“数学芯片”,实现千倍算力飞跃

重大突破,北京大学新型“数学芯片”,实现千倍算力飞跃

未来光锥
2025-10-16 15:50
北京
日常生活中的许多复杂问题,比如无线通信中的信号处理,天气预报中的大气模拟,甚至人工智能模型的训练,最终都可以转化为矩阵方程的求解问题。简单来说,矩阵方程就像是数学中的“配方”,通过已知的条件(矩阵 A 和向量 b)来求解未知的结果(向量x),其形式为:

Ax=b

传统的数字计算机在处理这类问题时,需要将数据在处理器和内存之间来回搬运,效率低、能耗高。尤其当数据量极大时,这一过程会变得异常缓慢,成为所谓的“冯·诺依曼瓶颈”。

10月13日,北京大学人工智能研究院孙仲研究员团队及合作者在《自然电子学》(Nature Electronics)杂志发表了题为Precise and scalable analogue matrix equation solving using resistive random-access memory chips(使用电阻随机存取存储器芯片实现精确可扩展的模拟矩阵方程求解)的论文,在新型计算架构上取得重大突破,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径。

“一步到位”的模拟计算:忆阻器登场

研究团队采用的是一种叫做 “忆阻器” 的新型电子器件。它可以被看作一个“智能电阻”,能够记住过去通过它的电流大小。成千上万个忆阻器可以组成一个交叉阵列,直接作为一个物理矩阵来使用。

当输入一个电压信号时,阵列会自动输出矩阵运算的结果,整个过程几乎不需要数字计算的步骤,因此速度极快,能耗极低。这种计算方式被称为 “模拟矩阵计算”。

精度与规模如何两全其美?

然而,模拟计算长期以来的软肋是精度不足。以往的研究要么只能处理很小的矩阵,要么结果误差较大,难以实用。

北大团队这次提出的 “高精度模拟矩阵求逆” 方法,巧妙地结合了两种操作:

低精度矩阵求逆:快速给出一个“粗略解”;

高精度矩阵乘法:通过“比特切片”技术,将一个大矩阵拆成多个小矩阵,分别计算后再组合,逐步修正误差。

这种方法像是一位画家先勾勒草图,再层层上色细化,最终得到一幅细节丰富的作品。实验表明,该方法能以 24 比特的精度(媲美传统计算机的32位浮点数)求解 16×16 的矩阵方程。

应用场景:从6G通信到AI训练

研究团队将这一技术应用于 “大规模MIMO通信系统”,这是5G-A和6G的核心技术之一。在基站与手机之间的信号传输中,需要实时求解复杂的矩阵方程来还原原始信号。

实验显示,使用该模拟求解器,仅需2~3次迭代,就能实现与高端数字处理器相同的信号检测精度,且支持高阶调制技术(如256-QAM),传输效率大幅提升。


高精度矩阵方程求解在大规模多输入多输出(MIMO)迫零检测信号处理过程中的应用

性能对比:提速千倍,能效百倍

研究团队将他们的模拟系统与当前最先进的数字处理器,如英伟达H100 GPU、专用ASIC芯片进行了对比。结果显示:

计算速度提升 1000 倍,能效提升 100 倍!这意味着,在未来需要处理海量数据的智能系统,如边缘计算、自动驾驶、科学模拟)中,这类模拟计算芯片有望成为新一代高效计算引擎。

这项研究不仅突破了模拟计算长期以来的精度瓶颈,也展示了其在实际系统中的可行性与优越性,展现了一条通向高精度、高能效、可扩展模拟计算的道路。
时间:  2025-10-16 20:50
作者: hwwdx

比H100还快千倍,关键是什么时候能商用。
时间:  2025-10-16 21:18
作者: 不吹不黑

真乃重大!
时间:  2025-10-16 21:24
作者: 大唐大野虎

对这种放卫星,我持怀疑态度。
时间:  2025-10-16 23:43
作者: wang0906601

牛!!!!!!
时间:  2025-10-17 09:10
作者: laozhu

没太看明白了
时间:  2025-10-17 09:22
作者: 坂田小夫妻

应该治治这种把学术创新吹嘘成巨大实用前景的歪风邪气。
时间:  2025-10-17 09:25
作者: axuan

新闻联播还上了?
时间:  2025-10-17 17:54
作者: coffee198375

特定使用场景。。。。




通信人家园 (https://www.txrjy.com/) Powered by C114