电院要闻
电院计算机系智能计算研究组论文《基于可重构式存内计算的通用图神经网络加速》获CCF-B最佳论文提名
作者:聂晨 供稿:计算机科学与工程系 日期:2023-12-24 阅读:886

近日,由上海交通大学电子信息与电气工程学院计算机科学与工程系智能计算研究组撰写的论文“GIM: Versatile GNN Acceleration with Reconfigurable Processing-in-Memory”在计算机体系结构国际知名学术会议IEEE International Conference on Computer Design(CCF-B)获最佳论文提名。电院计算机系博士生聂晨为第一作者,阿里云陈国洋、张伟丰为合作者,计算机系何哲陟老师为通讯作者。该研究工作得到了国家自然科学基金、国家重点研发计划等资助。


图神经网络计算示例.png

图神经网络计算示例


处理器、专用集成电路和存内计算架构对比.png

处理器、专用集成电路和存内计算架构对比


研究背景

图神经网络是一种流行且高效的专用于非欧几里德图数据的神经网络算法。近年来,图神经网络及其各种变体已广泛应用于现实世界的众多工业和学术领域,包括且不限于推荐系统、蛋白质预测、药物开发等。然而,在大数据时代,数据量的增加和计算的不规则性对传统以处理器为中心的计算机架构提出了巨大的挑战,其性能受到大量数据搬移和缓慢发展的内存技术的限制。此前有利用存内计算的计算范式实现图神经网络计算的加速的硬件架构设计,然而其仍有面积开销大、低容错、低利用率等缺点。

内容摘要


文章提出的图神经网络计算加速器架构示意图.png

图神经网络计算加速器架构示意图


作者提出了一种用于支持多种图神经网络加速的存内计算架构GIM。针对图神经网络计算负载的特点,采用了全数字的计算范式,避免了使用面积成本高昂的模拟域外围电路。所有计算由存储阵列旁的高效的数字计算逻辑进行,并且通过集成设计大幅降低面积开销,实现了极高的片上存储密度,取得了更大的片上存储容量和更高的计算并行性。其次,作者在片上集成了高效的稀疏优化电路,从而在不篡改算法的前提下,充分利用图神经网络计算中的操作数级和比特级稀疏性。此外,作者还提出了针对数据布局的优化,通过定制化的数据映射以及高访问结点复制技术,大幅减少计算时的数据通信,缓解图计算非规则访存的缺陷,并显著提高计算的并行度。通过详尽的实验分析,作者提出的计算架构在数个具有代表性的大规模图数据集上,性能均显著优于现有的CPU、GPU及其他存内计算加速器。其中,对比现有领域领先设计,论文提出的架构可实现9倍的吞吐量提升和15倍的能效提升。

作者简介

聂辰.jpg

聂晨,现为上海交通大学计算机科学与技术专业2021级博士生,博士生导师为何哲陟。主要研究方向高性能存内计算架构、芯片设计、软硬件协同优化等。发表论文Nature Communication, TC, ICCD等。


何哲陟.jpg

何哲陟,现任上海交通大学计算机科学与工程系助理教授,主要研究方向为智能计算的软硬件跨层次研究(算法、架构、集成电路),电子设计自动化等。

Baidu
map