在刚公布的国际软件工程顶级会议ICSE 2024 (International Conference on Software Engineering)论文录用结果中,我院博士生曹思聪为第一作者的论文“Coca: Improving and Explaining Graph Neural Network-Based Vulnerability Detection Systems”以长文类型录用。

基于图神经网络(Graph Neural Network, GNN)的漏洞检测系统近年来取得了显著的进展。然而,可解释性的缺乏给在安全相关领域部署黑匣子模型带来了严峻挑战。出于这个原因,一些方法通过提供一组对模型预测有积极贡献的关键语句来解释其决策逻辑。由于检测模型的弱鲁棒性和次优的解释策略,这些解释结果存在揭示虚假相关性的危险,并且无法在简洁性和有效性之间进行权衡。基于上述不足,我们提出了一个兼顾鲁棒性和可解释性的通用框架Coca,旨在1)增强现有基于GNN的漏洞检测模型的鲁棒性以避免虚假的解释;并且2)提供简明有效的解释结果来辅助漏洞分析与定位。Coca由两个核心部分组成,分别称为训练模块Trainer和解释模块Explainer。前者旨在基于组合对比学习训练一个对随机扰动具有鲁棒性的检测模型,而后者则构建一个解释器,通过双视角因果推理推导出对检测到的漏洞最具决定性的关键陈述。我们将Coca应用于三个典型的基于GNN的漏洞检测器。实验结果表明,Coca可以有效地缓解虚假解释问题,并提供更有用的高质量解释。
ICSE会议是软件工程领域最权威的国际学术会议,由IEEE与ACM联合主办,是CCF-A类、Core Conference Ranking A*类会议。