您现在的位置是:首页 > 生活 > 正文

计算方案加速机器学习 同时提升传统数据运算的能效

发布时间:2024-09-27 11:20:03嵇维桦来源:

导读 ChatGPT 等人工智能模型依靠算法运行,对数据有着极大的需求,它们通过机器学习来处理数据,但它们的数据处理能力究竟有多大呢?北京大学集...

ChatGPT 等人工智能模型依靠算法运行,对数据有着极大的需求,它们通过机器学习来处理数据,但它们的数据处理能力究竟有多大呢?北京大学集成电路学院和人工智能研究所孙忠教授带领的研究人员着手解决限制数据处理的冯·诺依曼瓶颈问题。

该团队在2024年9月12日发表在Device杂志上的论文中,开发了双IMC(内存计算)方案,不仅加速了机器学习的过程,还提高了传统数据运算的能源效率。

在制定算法时,软件工程师和计算机科学家依赖于称为矩阵向量乘法 (MVM) 的数据操作,该操作支持神经网络。神经网络是一种计算架构,常见于模仿人类大脑功能和结构的 AI 模型中。

随着数据集规模的快速增长,计算性能常常受到数据移动以及处理和传输数据的速度不匹配的限制。这就是所谓的冯·诺依曼瓶颈。传统的解决方案是单内存计算 (single-IMC) 方案,其中神经网络权重存储在内存芯片中,而输入(例如图像)由外部提供。

然而,单IMC的缺点是片上和片外数据传输之间的切换,以及数模转换器(DAC)的使用,这会导致较大的电路占用空间和高功耗。

为了充分发挥IMC原理的潜力,团队开发了一种双IMC方案,将神经网络的权重和输入都存储在内存阵列中,从而以完全内存的方式执行数据操作。

随后,该团队在电阻式随机存取存储器 (RRAM) 设备上测试了双 IMC,以进行信号恢复和图像处理。以下是双 IMC 方案应用于 MVM 操作时的一些好处:

标签:

上一篇
下一篇

最新文章