科技财经时报2025年10月11日 12:22消息,刷新纪录!南大团队研发出最高计算精度模拟存算一体芯片,引领人工智能新突破。
模拟计算因其在能效和速度方面的显著优势,近年来在AI硬件领域备受关注。记者10日从南京大学获悉,该校类脑智能科技研究中心的研究团队提出了一种高精度模拟存内计算方案,并基于此开发出一款采用互补金属氧化物半导体工艺的模拟存算一体芯片。测试数据显示,该芯片在模拟存内计算领域达到了前所未有的精度水平。相关研究成果近日发表于国际学术期刊《科学·进展》。 这一成果不仅展示了我国在类脑计算领域的技术实力,也预示着未来人工智能硬件可能迎来新的突破方向。模拟计算的高精度与高效能结合,或将推动更多实际应用场景的落地,为下一代智能系统提供更坚实的基础。
尽管模拟计算硬件在能效和并行处理方面具备显著优势,但目前仍普遍面临计算精度不足和稳定性不够的问题。论文共同通讯作者、南京大学类脑智能科技研究中心主任缪峰教授表示。
此次研究中,科研团队提出了一种高精度的模拟存内计算实现方法。“我们把模拟计算权重的实现方式,从容易受到环境影响的物理状态参数,转变为了具有高度稳定性的器件几何尺寸比例,从而突破了制约模拟计算精度提升的关键瓶颈。”论文共同第一作者、南京大学博士王聪表示。
基于这一思想,团队研发出了高精度模拟存算一体电路架构,并进行了流片验证。
“在此过程中,我们采用了一种权值重映射技术,进一步提高芯片的计算精度。”缪峰介绍,该芯片在并行向量矩阵乘法运算中实现了仅0.101%的均方根误差,创下了模拟向量-矩阵乘法运算精度的最高纪录。
论文共同通讯作者、南京大学梁世军教授表示,该芯片在-78.5℃至180℃的极端温度条件下仍能保持稳定运行,其矩阵计算的均方根误差分别控制在0.155%和0.130%。此外,研究团队还在强磁场环境下对芯片的输出电流进行了测试,结果显示,芯片核心单元的输出电流在有磁场与无磁场条件下的变化幅度不超过0.21%。
这些结果证明了高精度模拟计算方案在极端环境下的稳定性。缪峰表示,这一进展是模拟存内计算技术走向实际应用的重要里程碑,有望促进低功耗、高精度人工智能硬件技术的实现。