RGCN:基于忆阻器的图卷积神经网络加速器设计
编号:82 访问权限:仅限参会人 更新:2021-12-07 09:36:25 浏览:379次 口头报告

报告开始:2021年12月12日 16:30(Asia/Shanghai)

报告时间:15min

所在会场:[S1] 论文报告会场1 [S1.5&6] Session 5 IC设计与EDA I & Session 6 IC设计与EDA II

暂无文件

摘要
图卷积神经网络(Graph Convolutional Network, GCN)在社交网络、电子商务、分子结构推理等任务中的表现远超传统人工智能算法,在近年来获得广泛关注。与卷积神经网络(Convolutional Neural Network, CNN)数据独立分布不同,图卷积神经网络更加关注数据之间特征关系的提取,通过邻接矩阵表示数据关系,因此其输入数据和操作数相比卷积神经网络而言都更加稀疏且存在大量数据传输,所以实现高效的 GCN 加速器是一个挑战。忆阻器(Resistive Random Access Memory, ReRAM)作为一种新兴的非易失性存储器,具有高密度、读取访问速度快、低功耗和存内计算等优点。利用忆阻器为 CNN 加速已经被广泛研究,但是图卷积神经网络极大的稀疏性会导致现有加速器效率低下,因此我们提出了一种基于忆阻器交叉阵列的高效图卷积神经网络加速器 RGCN,首先,我们分析 GCN 中不同操作数的计算和访存特征,提出权重和邻接矩阵到忆阻器阵列的映射方法,有效利用两种操作数的计算密集特征并避免访存密集的特征向量造成过高开销;进一步地,我们充分挖掘邻接矩阵的稀疏性,提出子矩阵划分算法及邻接矩阵的压缩映射方案,最大程度降低 GCN 的忆阻器资源需求;此外,RGCN 提供对稀疏计算支持,支持压缩格式为坐标表(Coordinate List, COO)的特征向量输入,保证计算过程规则且高效地执行。实验结果显示,RGCN 相比 CPU 有 57 倍速度提升和 1800 倍能量节省;相比 GPU 也有 3.6 倍速度提升和 202 倍能耗节省。
关键词
图卷积神经网络;忆阻器;稀疏性;存内计算;能效分析
报告人
ZhangWeigong
Capital Normal University

稿件作者
午康俊 Capital Normal University
LiBing Capital Normal University
wangjing Capital Normal University
GaoLan Capital Normal University
ZhangWeigong Capital Normal University
发表评论
验证码 看不清楚,更换一张
全部评论
重要日期
  • 会议日期

    12月11日

    2021

    12月12日

    2021

  • 08月18日 2021

    注册截止日期

主办单位
中国计算机学会
承办单位
中国计算机学会容错计算专业委员会
同济大学软件学院
历届会议
移动端
在手机上打开
小程序
打开微信小程序
客服
扫码或点此咨询