云霞资讯网

我国新型模拟计算芯片,精度提升至24位

对于习惯了数字计算机0和1运算的人来说,“模拟计算”是个既古老又新奇的概念。上世纪30至60年代模拟计算机曾广泛应用,但因精度瓶颈逐渐被数字计算取代。 如今,北京大学人工智能研究院孙仲团队联合集成电路学院,成功研制出基于阻变存储器的高精度可扩展模拟矩阵计算芯片,首次将模拟计算精度提升至24位定点精度,解决了模拟计算“算不准”的世纪难题,为人工智能、6G通信等领域的算力挑战提供了新路径。 数字计算需要把数据转译成0和1的符号串,比如数字十要变成1010;而模拟计算不用这层转译,直接用连续的物理量比如电压、电流表示数值,比如十伏电压就代表数字十。 这种利用物理定律直接运算的方式,天生具有低功耗、低延迟、高能效、高并行的优势。但如何让模拟计算兼具高精度与可扩展性,一直是全球科学界的难题。

团队的突破来自器件、电路、算法三个层面的协同。核心器件是阻变存储器,它的电阻值可以用电压调节,既有存储功能又是计算单元,实现了存算一体,避免了冯诺依曼结构存储与计算分离的效能损失。 电路方面,团队原创了基于阻变存储器阵列的电路,能一步求解矩阵方程,之前精度只有1%,现在整合其他技术后性能大幅提升。 算法上用了位切片和迭代优化:位切片把24位精度切成8个3位模块,多个阵列计算后拼接;迭代优化像在山谷找最低点,先用低精度电路快速出粗略解,再用高精度乘法器精准优化,几次迭代就能得到精确解。

实验数据显示,团队成功实现16×16矩阵的24比特定点数精度求逆,10次迭代后相对误差低至10⁻⁷量级。求解32×32矩阵求逆时,算力已超高端GPU单核性能;当矩阵规模扩大到128×128,计算吞吐量达到顶级数字处理器的1000倍以上,传统GPU干一天的活,这款芯片一天就能搞定。 同时,相同精度下能效比传统数字处理器高100倍以上,为高能效计算中心提供了关键技术支撑。

团队把芯片用到了大规模MIMO信号检测中,仅用3次迭代,恢复的图像就和原始图像高度一致,误码率和32位数字计算效果相当,显示出实时信号处理的潜力。 孙仲说,模拟计算能以极高效率和精度解决现代科学工程的核心计算问题,未来有望用于人工智能模型训练、机器人等场景,作为现有CPU、GPU的补充——CPU是通用“总指挥”,GPU专注加速矩阵乘法,模拟计算芯片则高效处理AI领域最耗能的矩阵逆运算,三者互补共存。