点击右上角微信好友
朋友圈
点击浏览器下方“”分享微信好友Safari浏览器请点击“
”按钮
【瞧!我们的前沿科技】
光明日报北京10月13日电(记者晋浩天)在数字计算主导计算机领域半个多世纪后,我国科学家在新型计算架构上取得重大突破——北京大学人工智能研究院孙仲团队主导,并联合集成电路学院研究团队,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,首次将模拟计算的精度提升至24位定点精度。相关性能评估表明,该芯片在求解大规模MIMO信号检测等关键科学问题时,计算吞吐量与能效较当前顶级数字处理器(如图形处理器GPU)提升百倍至千倍。这一成果标志着我国突破模拟计算世纪难题,在后摩尔时代计算范式变革中取得重大突破,为应对人工智能与6G通信等领域的算力挑战开辟了全新路径,相关成果13日发表于国际学术期刊《自然·电子学》。
论文通讯作者孙仲告诉记者,模拟计算是早期计算机的核心技术,通过物理定律直接运算,具有高并行、低延时、低功耗的先天优势。然而,由于传统模拟计算精度低、难扩展,逐渐被高精度、可编程的数字计算取代,成为存于教科书中的“老旧技术”。“如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的‘世纪难题’。数字计算虽精度高,但计算速度慢,同时存在冯·诺依曼架构的‘内存墙’问题,已成为人工智能、科学计算和6G通信发展的瓶颈。”
面对这一挑战,研究团队选择了一条融合创新的道路,他们通过新型信息器件、原创电路和经典算法的协同设计,首次实现了在精度上可与数字计算媲美的模拟计算系统,将传统模拟计算的精度提升了五个数量级。“我们研发的新方案在保持模拟计算低复杂度优势的同时,实现了与数字FP32处理器相媲美的计算精度。团队还提出了块矩阵模拟计算方法,像拼图一样将大问题分解到多个芯片上协同解决,成功突破了模拟计算的规模限制,实验实现了16×16矩阵方程的求解。”
孙仲透露,通过严格的实验测试和基准对比,该技术展现出卓越性能。在算力方面,当求解32×32矩阵求逆问题时,该方案算力已超越高端GPU的单核。当问题规模扩大至128×128时,计算吞吐量可达顶级数字处理器的1000倍以上。“这项技术还展现了极致的能效比。在相同精度下,该技术的能效比高出传统数字处理器100倍以上,为算力中心能耗问题提供关键技术支撑。”
“这项突破的意义远不止于一篇顶刊论文,它的应用前景广阔,可赋能多元计算场景,有望重塑算力格局。”孙仲表示,在未来的6G通信领域,它能让基站以实时且低能耗方式处理海量天线信号,提升网络容量和能效。对于正在高速发展中的人工智能技术,这项研究有望加速大模型训练中计算密集的二阶优化算法,从而显著提升训练效率。“更重要的是,低功耗特性也将强力支持复杂信号处理和AI训推一体在终端设备上的直接运行,大大降低对云端的依赖,进而推动边缘计算迈向新阶段。”
“这项工作的最大价值在于,它用事实证明,模拟计算能以极高效率和精度解决现代科学和工程中的核心计算问题。可以说,我们为算力提升探索出一条极具潜力的路径,有望打破数字计算的长期垄断,开启一个算力无处不在且绿色高效的新时代。”孙仲透露,目前,团队正积极推进该技术的产业化进程,尽快将实验室成果推向市场。
《光明日报》(2025年10月14日 08版)